repo_id
stringlengths
5
115
size
int64
590
5.01M
file_path
stringlengths
4
212
content
stringlengths
590
5.01M
UnWaitingGo/my-rcore
1,655
os/src/trap/trap.S
.altmacro .macro SAVE_GP n sd x\n, \n*8(sp) .endm .macro LOAD_GP n ld x\n, \n*8(sp) .endm .section .text .globl __alltraps .globl __restore .align 2 __alltraps: #这一行之前 sp 指向用户栈, sscratch 指向内核 csrrw sp, sscratch, sp #现在 sp 指向内核栈, sscratch 指向用户栈。 addi sp, sp, -34*8 # 在内核栈上保存 Trap 上下文 # 保存通用寄存器 sd x1, 1*8(sp) # 跳过 sp(x2), 我们会在后面保存 sd x3, 3*8(sp) # 跳过保存 tp(x4), 应用不会使用它 # x5~x31 这 27 个通用寄存器我们通过类似循环的 .rept 每次使用 SAVE_GP 宏来保存 .set n, 5 .rept 27 #在 trap.S 开头加上 .altmacro 才能正常使用 .rept 命令 SAVE_GP %n .set n, n+1 .endr # 我们可以自由使用 t0/t1/t2 寄存器, 因为他们是在内核栈上保存 csrr t0, sstatus #我们将 CSR sstatus 和 sepc 的值分别读到寄存器 t0 和 t1 中然后保存到内核栈对应的位置上。 csrr t1, sepc sd t0, 32*8(sp) sd t1, 33*8(sp) # 将用户栈上的 sscratch 的值读到寄存器 t2 并保存到内核栈上 csrr t2, sscratch sd t2, 2*8(sp) # 设置 trap_handler 的输入参数(cx: &mut TrapContext) mv a0, sp #让寄存器 a0 指向内核栈的栈指针也就是我们刚刚保存的 Trap 上下文的地址 call trap_handler __restore: # 情况 1:通过__restore 启动应用程序 # 情况 2:处理完trap后返回用户模式(U 模式) mv sp, a0 # 现在 sp-> 内核栈(已分配后),sscratch-> 用户栈 # 恢复 sstatus 和 sepc 寄存器 ld t0, 32*8(sp) ld t1, 33*8(sp) ld t2, 2*8(sp) csrw sstatus, t0 csrw sepc, t1 csrw sscratch, t2 # 恢复除 sp/tp 之外的通用寄存器 ld x1, 1*8(sp) ld x3, 3*8(sp) .set n, 5 .rept 27 LOAD_GP %n .set n, n+1 .endr # 释放内核栈上的 TrapContext(陷阱上下文) addi sp, sp, 34*8 # 现在 sp-> 内核栈,sscratch-> 用户栈 csrrw sp, sscratch, sp sret #使用 sret 指令回到 U 特权级继续运行应用程序控制流。
uzeyirrr/uzeyiros
8,476
kernel/src/entry.S
// The rxv64 kernel starts executing in this file, which is linked with // the kernel Rust code so that it can refer to kernel symbols such as // main(). The boot block (bootasm.S and bootmain.c) jumps to `start` // below. // Multiboot header, for multiboot boot loaders like GNU Grub. // http://www.gnu.org/software/grub/manual/multiboot/multiboot.html // // Using GRUB 2, you can boot xv6 from a file stored in a // Linux file system by copying kernel or kernelmemfs to /boot // and then adding this menu entry: // // menuentry "xv6" { // insmod ext2 // set root='(hd0,msdos1)' // set kernel='/boot/kernel' // echo "Loading ${kernel}..." // multiboot ${kernel} ${kernel} // boot // } .set STACKSIZE, 4096 .set PAGESIZE, 4096 .set CR0_PE, 1 << 0 .set CR0_WP, 1 << 16 .set CR0_PG, 1 << 31 .set CR0_BOOT64, CR0_PE + CR0_WP + CR0_PG .set CR4_PAE, 1 << 5 .set CR4_FSGSBASE, 1 << 16 .set CR4_BOOT, CR4_PAE + CR4_FSGSBASE .set IA32_MSR_EFER, 0xc0000080 .set EFER_SCE, 1 << 0 .set EFER_LME, 1 << 8 .set EFER_NX, 1 << 11 .set EFER_BOOT_LO, EFER_SCE + EFER_LME + EFER_NX .set EFER_BOOT_HI, 0x00000000 .set GDT_NULL, 0 .set GDT_CODE64, 1 << 3 .set GDT32_CODE, 2 << 3 .set GDT32_DATA, 3 << 3 .set SEG_READ, 1 << 41 .set SEG_WRITE, 1 << 42 .set SEG_CODE, 1 << 43 .set SEG_DATA, 0 << 43 .set SEG_ALWAYS1, 1 << 44 .set SEG_PRESENT, 1 << 47 .set SEG_LONG, 1 << 53 .set SEG32_DEFAULT, 1 << 54 .set SEG32_GRANULARITY, 1 << 55 .set SEG32_LIMIT, (0xF << 48) + 0xFFFF .set SEG32_DEF, SEG32_DEFAULT + SEG32_GRANULARITY + SEG32_LIMIT .set KERNBASE, 0xFFFF800000000000 .set MULTIBOOT1_MAGIC, 0x1BADB002 .set MULTIBOOT1_FLAGS, 1 << 1 // Provide memory map. .section .text.boot .balign 8 .globl multiboot1_header multiboot1_header: .int MULTIBOOT1_MAGIC .int MULTIBOOT1_FLAGS .int -(MULTIBOOT1_MAGIC + MULTIBOOT1_FLAGS) .code32 .globl entry entry: cli cld movl $(bootstack - KERNBASE + STACKSIZE), %esp movl $IA32_MSR_EFER, %ecx movl $EFER_BOOT_LO, %eax movl $EFER_BOOT_HI, %edx wrmsr movl %cr4, %eax orl $CR4_BOOT, %eax movl %eax, %cr4 movl $(entrypgtbl - KERNBASE), %eax movl %eax, %cr3 movl $CR0_BOOT64, %eax movl %eax, %cr0 nop nop lgdt (entrygdtdesc - KERNBASE) ljmpl $GDT_CODE64, $(entry64 - KERNBASE) .code64 entry64: xorw %ax, %ax movw %ax, %ds movw %ax, %es movw %ax, %fs movw %ax, %gs movw %ax, %ss movabsq $(bootstack + STACKSIZE), %rsp movabsq $1f, %rax pushq %rax ret 1: // Call `main` in Rust code. movq %rbx, %rdi pushq $0 movq %rsp, %rbp callq main 1: cli hlt jmp 1b .balign 4096 .rodata .set APENTRY, 0x7000 .set APPERCPU, 0x8000 - 24 .set APID, 0x8000 - 16 .set APSEMAPHORE, 0x8000 - 8 // While it may seem like this should be in a text section, // it is deliberately not. AP entry code is explicitly copied // to a page in low memory for execution, so as far as the rest // of the kernel is concerned it's simply read-only data. We // put it into .rodata so that it's mapped onto a non-executable // page and the kernel cannot accidentally jump into it once it // is running in Rust code on a real page table. .globl apentry, eapentry .code16 .balign 4096 apentry: cli cld wbinvd lgdtl (APENTRY + (apgdtdesc - apentry)) movl %cr0, %eax orl $CR0_PE, %eax movl %eax, %cr0 ljmpl $GDT32_CODE, $(APENTRY + (apentry32 - apentry)) .code32 apentry32: movw $GDT32_DATA, %ax movw %ax, %ds movw %ax, %ss movw %ax, %es xorw %ax, %ax movw %ax, %fs movw %ax, %gs movl $IA32_MSR_EFER, %ecx movl $EFER_BOOT_LO, %eax movl $EFER_BOOT_HI, %edx wrmsr movl %cr4, %eax orl $CR4_BOOT, %eax movl %eax, %cr4 movl $(entrypgtbl - KERNBASE), %eax movl %eax, %cr3 movl $CR0_BOOT64, %eax movl %eax, %cr0 nop nop ljmp $GDT_CODE64, $(APENTRY + (apentry64 - apentry)) .code64 apentry64: xorw %ax, %ax movw %ax, %ds movw %ax, %es movw %ax, %fs movw %ax, %gs movw %ax, %ss movq APPERCPU, %rdi movq APID, %rsi movq APSEMAPHORE, %rdx movq %rdi, %rsp addq $4096, %rsp movabsq $1f, %rax pushq %rax ret 1: pushq $0 movq %rsp, %rbp call mpenter 1: cli hlt jmp 1b .balign 16 gdt: // 0: Null segment .quad 0 // 8: Kernel 64-bit code segment .quad (SEG_READ + SEG_CODE + SEG_ALWAYS1 + SEG_PRESENT + SEG_LONG) // 16: Kernel 32-bit code segment (for bootstrapping APs) .quad (SEG_READ + SEG_CODE + SEG_ALWAYS1 + SEG_PRESENT + SEG32_DEF) // 24: Kernel 32-bit data segment (for bootstrapping APs) .quad (SEG_READ + SEG_WRITE + SEG_ALWAYS1 + SEG_PRESENT + SEG32_DEF) egdt: .skip 6 apgdtdesc: .word egdt - gdt - 1 .long (APENTRY + gdt - apentry) eapentry: .balign 4096 .globl entrypgtbl entrypgtbl: .quad (entrypgtbl3 - KERNBASE) + (1<<1) + (1<<0) .space (4096/2) - (1*8) .quad (entrypgtbl3 - KERNBASE) + (1<<1) + (1<<0) .space (4096/2) - (1*8) .balign 4096 entrypgtbl3: .quad (entrypgtbl2 - KERNBASE) + (1<<1) + (1<<0) .space 4096 - 1*8 .balign 4096 entrypgtbl2: .quad (0<<20) + (0<<63) + (1<<7) + (1<<1) + (1<<0) .quad (2<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (4<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (6<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (8<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (10<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (12<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (14<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (16<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (18<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (20<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (22<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (24<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (26<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (28<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (30<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (32<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (34<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (36<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (38<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (40<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (42<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (44<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (46<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (48<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (50<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (52<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (54<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (56<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (58<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (60<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (62<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (64<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (66<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (68<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (70<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (72<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (74<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (76<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (78<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (80<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (82<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (84<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (86<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (88<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (90<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (92<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (94<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (96<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (98<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (100<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (102<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (104<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (106<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (108<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (110<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (112<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (114<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (116<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (118<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (120<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (122<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (124<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .quad (126<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0) .space 4096 - 64*8 .balign 16 .skip 6 entrygdtdesc: .word egdt - gdt - 1 .long (gdt - KERNBASE) .bss .balign 4096 // Stack. .globl bootstack .comm bootstack, STACKSIZE
Vac011/rcore_c
2,218
code/os/src/trap/trap.S
.altmacro .macro SAVE_GP n sd x\n, \n*8(sp) .endm .macro LOAD_GP n ld x\n, \n*8(sp) .endm .section .text.trampoline .globl __alltraps .globl __restore .globl __alltraps_k .globl __restore_k .align 2 __alltraps: csrrw sp, sscratch, sp # now sp->*TrapContext in user space, sscratch->user stack # save other general purpose registers sd x1, 1*8(sp) # skip sp(x2), we will save it later sd x3, 3*8(sp) # skip tp(x4), application does not use it # save x5~x31 .set n, 5 .rept 27 SAVE_GP %n .set n, n+1 .endr # we can use t0/t1/t2 freely, because they have been saved in TrapContext csrr t0, sstatus csrr t1, sepc sd t0, 32*8(sp) sd t1, 33*8(sp) # read user stack from sscratch and save it in TrapContext csrr t2, sscratch sd t2, 2*8(sp) # load kernel_satp into t0 ld t0, 34*8(sp) # load trap_handler into t1 ld t1, 36*8(sp) # move to kernel_sp ld sp, 35*8(sp) # switch to kernel space csrw satp, t0 sfence.vma # jump to trap_handler jr t1 __restore: # a0: *TrapContext in user space(Constant); a1: user space token # switch to user space csrw satp, a1 sfence.vma csrw sscratch, a0 mv sp, a0 # now sp points to TrapContext in user space, start restoring based on it # restore sstatus/sepc ld t0, 32*8(sp) ld t1, 33*8(sp) csrw sstatus, t0 csrw sepc, t1 # restore general purpose registers except x0/sp/tp ld x1, 1*8(sp) ld x3, 3*8(sp) .set n, 5 .rept 27 LOAD_GP %n .set n, n+1 .endr # back to user stack ld sp, 2*8(sp) sret .align 2 __alltraps_k: addi sp, sp, -34*8 sd x1, 1*8(sp) sd x3, 3*8(sp) .set n, 5 .rept 27 SAVE_GP %n .set n, n+1 .endr csrr t0, sstatus csrr t1, sepc sd t0, 32*8(sp) sd t1, 33*8(sp) mv a0, sp csrr t2, sscratch jalr t2 __restore_k: ld t0, 32*8(sp) ld t1, 33*8(sp) csrw sstatus, t0 csrw sepc, t1 ld x1, 1*8(sp) ld x3, 3*8(sp) .set n, 5 .rept 27 LOAD_GP %n .set n, n+1 .endr addi sp, sp, 34*8 sret
ValentinoKvolek/Universidad
2,358
Arquitectura_de_Computadoras/practicas/Practica 5/lec_pros_num.s
.data CONTROL: .word 0x10000 DATA: .word 0x10008 men: .asciiz "Debe ingresar un numero" men2: .asciiz "la cantida de impares fue : " a: .byte 0 bb: .byte 10 max: .byte 20 tabla: .space 20 .code daddi $sp,$0,0x400 ld $s0, CONTROL($zero) #guardo control en s0 ld $s1, DATA($zero) #guardo data en s1 daddi $s2,$0,0 #contador para long y despla daddi $s3,$0,0 lazito: jal INGRESAR_NUMERO sb $v0,tabla($s2) daddi $s2,$s2,1 dadd $s3,$s3,$v0 ld $t7,max($zero) slt $t0,$s3,$t7 beqz $t0,fin2 j lazito fin2: daddi $a0, $0, tabla # pongo en a0 la direccion de tabla dadd $a1,$0,$s2 # en a1 esta mi longitud(cantidad de elemento a contar) jal PROCESAR_NUMEROS halt INGRESAR_NUMERO: daddi $sp,$sp,-8 sd $ra, 0($sp) # me guardo la direccion de retorno lazo: daddi $t2, $zero, 8 # para leer un numero sd $t2,0($s0) #control == 8 ld $t2, 0($s1) #lo tomo el caracter de data y lo pongo en t2 daddi $a0,$t2,0 # pongo el numero ingresado en a0 ld $a1,a($zero) # a1 = 0 ld $a2,bb($zero) # a2 = 10 jal ENTRE bnez $v0,imprimir # v0 = 1 daddi $t2, $zero , men sd $t2, 0 ($s1) daddi $t2, $zero, 4 sd $t2, 0($s0) j lazo imprimir: daddi $v0,$a0,0 ld $ra, 0($sp) daddi $sp,$sp,8 jr $ra # a0 = num, a1:= 0, a2 = 10. # B<N<A = 1 si no 0 ENTRE: slt $t0, $a1, $a0 # Si B<N beqz $t0,fin slt $t0,$a0,$a2 #si N<A beqz $t0,fin fin: dadd $v0,$0,$t0 #t0 puede ser 1 0 0 dependiendo n jr $ra #a0 la direccion de TABLA #a1 recibe la cantidad de elementos a contar PROCESAR_NUMEROS: daddi $t0, $0,0 # desplamiento daddi $t5,$0,0 # contador daddi $sp,$sp,-8 sd $ra, 0($sp) # me guardo la direccion de retorno bucle: beqz $a1, fin3 dadd $t1,$t0,$a0 #sumando la ubicacion de la tabla mas el indice para desplazarme lb $a2,0($t1) #pongo el numero a2 daddi $a1,$a1,-1 daddi $t0,$t0,1 jal ES_IMPAR dadd $t5,$t5,$v0 par: j bucle fin3: daddi $t2, $zero , men2 sd $t2, 0 ($s1) daddi $t2, $zero, 4 sd $t2, 0($s0) dadd $t2,$0,$t5 sd $t2,0($s1) # pongo el numero en data daddi $t2,$0,2 sd $t2,0($s0) #control == 2 ld $ra, 0($sp) daddi $sp,$sp,8 jr $ra ES_IMPAR: andi $v0,$a2,1 jr $ra
ValentinoKvolek/Universidad
1,534
Arquitectura_de_Computadoras/practicas/Practica 5/ejertipoparcial2.s
.data rojo: .byte 255,0,0,0 azul: .byte 0,0,255,0 DIR_CONTROL: .word 0x10000 # DIR_CONTROL tiene la DIRECCIÓN del registro CONTROL DIR_DATA: .word 0x10008 # IDEM para DATA .code daddi $sp,$0,0x400 #pongo sp en el tope de la "pila" ld $s0, DIR_CONTROL($zero) # Carga el valor 0x10000 en $s0 ld $s1, DIR_DATA($zero) # Carga el valor 0x10008 en $s1 daddi $a0,$0,0 # y ld $a2, rojo($zero) ld $a3, azul($zero) daddi $t5,$0,50 lazito: daddi $t5,$0,50 beq $a0,$t5,fin2 jal fila_alternativa jal alternar_color daddi $a0,$a0,1 j lazito fin2: halt fila_alternativa: daddi $sp,$sp , -8 sd $ra, 0($sp) # me guardo la direccion de retorno daddi $a1,$0,0 daddi $t1,$0,50 lazo: daddi $t1,$0,50 beq $a1,$t1,fin jal alternar_color jal pintar daddi $a1,$a1,1 j lazo fin: ld $ra, 0($sp) daddi $sp,$sp , 8 jr $ra #a0 = y , a1 = x , a2 = color pintar: sb $a0,4($s1) #guardo y en data sb $a1,5($s1) #guardo x en data sw $a2,0($s1) #guardo color en data daddi $t0,$0,5 sd $t0,0($s0) # para pintar el pixel jr $ra #a2=rojo #a3=azul alternar_color: daddi $t0,$a2,0 # me guardo el color actual daddi $a2,$a3,0 #alterno el color en a2 daddi $a3,$t0,0 #pongo colo anterio en a3 para volver al bucle jr $ra
ValentinoKvolek/Universidad
1,557
Arquitectura_de_Computadoras/practicas/Practica 5/parcialRepaso.s
#Escribir un programa que lea desde teclado un número en punto flotante y lo compare con el valor almacenado en la celda Valor. #Si el valor ingresado por teclado es mayor que el almacenado en Valor, deberá calcular (X - Valor) * X, donde X es el número leído por teclado. #Caso contrario, deberá calcular (Valor - X) / X. Por último, deberá imprimir el texto "El resultado es:" junto con el valor calculado. .data valor: .byte 10 control: .word 0x10000 data: .word 0x10008 men: .asciiz "El resultado es:" .code daddi $s0,$0, control #guardo en s0 la direccion de control daddi $s1,$0, data #guardo en s1 la direccion de data jal ingresarNum ld $a0,0($v0) # a0 = X ld $a1,valor($0) #a1= valor jal comparar bnez $v0, calculo1 #calculo2 dsub $t0,$a1,$a0 #(Valor - X) ddiv $t1,$t0,$a1 #(Valor - X) / X j fin calculo1: dsub $t0,$a0,$a1 #(X - Valor) dmul $t1,$t0,$a0 #(X - Valor) * X j fin fin: daddi $t2,$0,men sd $t2,0($s1) #guardo en data el mensanje daddi $t2,$0, 4 #no me acuerdo que num madale a control sd $t2,0($s0) # pero sea cual sea el num lo guarde en contro :v daddi $t2,$t1,0 # pongo en t2 el resultado sd $t2,0($s1) #guardo en data daddi $t2,$0, 2 # para imprimir sd $t2,0($s0) halt ingresarNum: daddi $t0,$0, 8 # guardo en t0 el valor 8 sd $t0, 0($s0) #control == 8 para pedir un numero ld $v0, 0($s1) #me guardo en v0 el numero ingresado jr $ra #a0 = x , $a1 = el numero que esta en VALOR. comparar: slt $v0,$a1,$a0 jr $ra
ValentinoKvolek/Universidad
1,105
Arquitectura_de_Computadoras/practicas/Practica 5/ejer1E.s
.data CONTROL: .word 0x10000 DATA: .word 0x10008 base: .word 0 exponente: .word 0 result: .word 0 .code ld $s0, CONTROL($zero) #guardo control en t0 ld $s1, DATA($zero) #guardo data en t1 daddi $t2, $zero, 8 # para leer un numero sd $t2,0($s0) #control == 8 ld $t2, 0($s1) #lo tomo el caracter de data y lo pongo en t2 sd $t2, base($zero) #coloco el numero que lei en la variable base ld $a0, base($zero) #guardo lo que esta en base en a0 daddi $t2, $zero, 8 # para leer un numero sd $t2,0($s0) #control == 8 ld $t2, 0($s1) #lo tomo el caracter de data y lo pongo en t2 sd $t2, exponente($zero) #coloco el numero que lei en la variable exponete ld $a1, exponente($zero) #guardo lo qeu esta en exponente en a1 jal potencia sd $v0, result($zero) sd $v0,0($s1) #guardo lo que me dio en data daddi $t2, $zero, 2 # para impimer numero sd $t2,0($s0) #control == 2 halt potencia: daddi $v0, $zero, 1 lazo: beqz $a1, terminar daddi $a1, $a1, -1 dmul $v0, $v0, $a0 j lazo terminar: jr $ra
ValentinoKvolek/Universidad
2,647
Arquitectura_de_Computadoras/practicas/Practica 5/parcialArqui.s
#Escribir un programa que use la información de 8 pares de números guardados en la variable pares, # y dibuje en la pantalla gráfica 8 puntos negros de acuerdo a la diferencia en valor absoluto de los valores de cada par. #La variable pares contiene todos los valores de los pares, en la primera y segunda posición se guarda el primer par, # en posición 3 y el segundo, y así sucesivamente. #El procesamiento de los pares lo debe hacer la subrutina GRAFICAR que recibe por referencia el arreglo de pares y su cantidad. #Para cada par de números leídos calcula la diferencia en valor absoluto y #dibuja en la pantalla gráfica del simulador un punto negro en la posición (diferencia, diferencia). #El cálculo de la diferencia se realiza en una subrutina que recibe los dos números del par y devuelve la diferencia en valor absoluto. #Recuerde que la diferencia en valor absoluto se obtiene restando el número mayor al menor. .data CONTROL: .word 0x10000 DATA: .word 0x10008 negro: .byte 255,255,255,0 pares: .word 1,15,5,25,20,25,5,20,35,40,49,3,13,5,17,4 .code ld $s0,CONTROL($0) #lo que esta en s0 lo cargo en control. ld $s1,DATA($0) #lo que esta en s1 lo cargo en data. daddi $sp,$0,0x400 #inicializo la pila daddi $a0,$0,pares # coloco en a0 la direccion de pares daddi $a1,$0, 16 #a1 tiene la cantidad. jal GRAFICAR halt #a0 = direc pares, #a1 = cant GRAFICAR: #como voy a irme a mi subrutina que calcula diferencia me tengo que guarde mi direc. de retorno del programa principal. daddi $sp, $sp , -8 # hago espacio. sd $ra,0($sp) #guardo la direccion de retorno. bucle: beqz $a1,finBucle ld $a2,0($a0) #cargo X1 en a2 daddi $a0,$a0,1 ld $a3,0($a0) #cargo X2 en a3 daddi $a0,$a0,1 jal DIFERENCIA ld $s2,0($v0) #s2 = X ld $a2,0($a0) #cargo y1 en a2 daddi $a0,$a0,1 ld $a3,0($a0) #cargo y2 en a3 daddi $a0,$a0,1 jal DIFERENCIA ld $s3,0($v0) #s3 = Y lwu $t0,negro($0) #guardo color sd $t0, 0($s1) #guardo en data el color sd $s2,5($s1) #guardo en data el X sd $s3,4($s1) #guardo en data el Y daddi $t0,$0,5 sd $t0,0($s0) #Imprimo. daddi $a1,$a1, -4 j bucle finBucle: #dejo la pila como estaba ld $ra,0($sp) daddi $sp, $sp , 8 jr $ra # recibe a2= num1 y en a3 = num2 DIFERENCIA: slt $t0, $a3,$a2 #si mi num 1 es mayor que el num 2 en t0 queda el 1 beqz $t0,resta2 #si esto no es cierto resta 2 # si no hago la resta 1: dsub $t1,$a2,$a3 # NUM1 - NUM2 j fin resta2: dsub $t1,$a3,$a2 # NUM2 - NUM1 fin: lbu $v0,0($t1) #resultado sin signo (valor absoluto) jr $ra
ValentinoKvolek/Universidad
1,619
Arquitectura_de_Computadoras/practicas/Practica 5/ejemploParcial.s
.data vector: .word 5, 10 , 20, -10 color: .byte 0,0,255,0 control: .word 0x10000 data: .word 0x10008 .code ld $s0,control($0) ld $s1,data($0) daddi $sp,$0,0x400 daddi $a0,$0,vector # en a0 guardo la direccion de mi vector jal imprimir halt #a0 = mi direc del vector imprimir: daddi $s0,$0,0 # donde guardo mi x daddi $s1,$0,0 # donde guardo mi y daddi $t1,$0,4 # esta mi condicion de corte daddi $sp,$sp, -8 sd $ra,0($sp) bucle: beqz $t1,fin ld $a2,0($a0) # donde guardo mi x daddi $a0,$a0,8 ld $a3,0($a0) # donde guardo mi y daddi $a0,$a0,8 daddi $t1,$t1,-2 jal ENTRE beqz $v0, seguir beqz $v1, seguir jal IMPRIMIR j bucle seguir: j bucle fin: ld $ra,0($sp) daddi $sp,$sp,8 jr $ra #a2 = X a3 = Y ENTRE: # comparacion de x daddi $t0,$0,-1 daddi $t1,$0,50 slt $t3,$t0,$a2 beqz $t3, fin slt $t3,$a2,$t1 beqz $t3, fin fin: $v0,$0,$t3 #v0 va a volver al programa con un 1 si me sirve el valor de X, si no con un 0 # comparacion de y daddi $t0,$0,-1 daddi $t1,$0,50 slt $t3,$t0,$a3 beqz $t3, fin2 slt $t3,$a3,$t1 beqz $t3, fin2 fin2: $v1,$0,$t3 #v1 va a volver al programa con un 1 si me sirve el valor de Y, si no con un 0 jr $ra #a2 = X a3 = Y IMPRIMIR: lwu $t0,color($0) #t0 tiene mi color. sw $t0,0($s1) # guardo color en data sb $a2,5($s1) #guardio mi x sb $a3,4($s1) #guardio mi y daddi $t0,$0,5 sd $t0,0($s0) #control en 5 jr $ra
ValentinoKvolek/Universidad
1,163
Arquitectura_de_Computadoras/practicas/Practica 5/ejer1F.s
.data CONTROL: .word 0x10000 DATA: .word 0x10008 base1: .word 3 base2: .word 2 exponente: .word 0 result: .word 0 aux: .word 0 aux2: .word 0 .code ld $s0, CONTROL($zero) #guardo control en s0 ld $s1, DATA($zero) #guardo data en s1 ld $a0, base1($zero) #guardo lo que esta en base en a0 daddi $t2, $zero, 8 # para leer un numero sd $t2,0($s0) #control == 8 ld $t2, 0($s1) #lo tomo el caracter de data y lo pongo en t2 sd $t2, exponente($zero) #coloco el numero que lei en la variable exponete ld $a1, exponente($zero) #guardo lo qeu esta en exponente en a1 jal potencia sd $v0, aux($zero) ld $a0, base2($zero) #guardo lo que esta en base en a0 ld $a1, exponente($zero) #guardo lo qeu esta en exponente en a1 jal potencia sd $v0, aux2($zero) ld $t1,aux($zero) ld $t3,aux2($zero) dadd $v0,$t3,$t1 sd $v0,0($s1) #guardo lo que me dio en data daddi $t2, $zero, 2 # para impimer numero sd $t2,0($s0) #control == 2 halt potencia: daddi $v0, $zero, 1 lazo: beqz $a1, terminar daddi $a1, $a1, -1 dmul $v0, $v0, $a0 j lazo terminar: jr $ra
ValentinoKvolek/Universidad
1,280
Arquitectura_de_Computadoras/practicas/Practica 5/ejer6b.s
.data n: .word 2 m: .word 3 resultfinal: .word 0 .code daddi $sp, $0, 0x400 #guardo en sp la direccion de la pila ld $a0, m($zero) #paso a m ld $a1, n($zero) #paso a n jal comb sd $v0, resultfinal($zero) halt #recibe M por $a0 y N por $a1, calculando M!/(N!*(M-N)!) comb: daddi $sp,$sp,-8 sd $ra,0($sp) #me guardo la direccion de retorno daddi $sp,$sp,-8 sd $s0,0($sp) #guardo los registro s0 en la pila daddi $sp,$sp,-8 sd $s1,0($sp) #guardo los registro s0 en la pila daddi $s0, $a0, 0 #guarde M daddi $s1, $a1, 0 #guarde N jal factorial daddi $t0, $v0,0 # m! daddi $a0, $s1,0 #a0 con N jal factorial daddi $t1, $v0,0 # n! dsub $t2,$s0,$s1 # M-N daddi $a0,$t2,0 #lo guardo en a0 (el resultado de m-n) jal factorial daddi $t3,$v0,0 #(M-N)! dmul $t4,$t1,$t3 # n! * (m-n)! ddiv $v0,$t0,$t4 # m! / (n! * (n-m)!) #vuelvo a el estado inicial de la pila ld $s1,0($sp) daddi $sp,$sp,8 ld $s0,0($sp) daddi $sp,$sp,8 ld $ra,0($sp) daddi $sp,$sp,8 jr $ra factorial: daddi $v0,$0,1 lazo: beqz $a0, fin dmul $v0,$v0,$a0 daddi $a0,$a0, -1 j lazo fin: jr $ra
ValentinoKvolek/Universidad
2,186
Arquitectura_de_Computadoras/practicas/Practica 5/parcialRepaso2.s
# Escribir la subrutina MIN_MAX que recibe la dirección de comienzo de una tabla y la cantidad de elementos, # y devuelve el valor máximo y el mínimo de dicha tabla. #Usando la subrutina, implementar un programa que obtenga el min y el max de 2 tablas. #Por último, imprimir en la pantalla gráfica un punto de color Verde (0,255,0) en la coordenada (mínimo_tabla2, máximo_tabla1) y otro de color Azul (0, 0, 255) en la coordenada (mínimo_tabla1, máximo_tabla2). # Usar la convención para nombrar a los registros .data tabla: .byte 1,5,10,2,5 tabla2: .byte 1,2,11,3,5 vectoryoni: .byte 3,4,5,6,10,40,12 verde: .byte 0,255,0,0 azul: .byte 0,0,255,0 control: .word 0x10000 data: .word 0x10008 .code ld $s0,control($0) #control en s0 ld $s1,data($0) #data en s1 daddi $a0,$0, tabla # le paso a a0 la direccion de tabla. daddi $a1,$0,5 # pongo en a1 la longitud. jal MIN_MAX sd $v0,0($s2) #guardo mi max1 en s2 sd $v1,0($s3) #guardo mi min1 en s3 # reseteo la tabla: daddi $a0,$0, tabla2 # le paso a a0 la direccion de tabla. daddi $a1,$0,5 # pongo en a1 la longitud. jal MIN_MAX sd $v0,0($s4) #guardo mi max2 en s4 sd $v1,0($s5) #guardo mi min2 en s5 #Imprimir1 lwu $t0,verde($0) sb $s5,4($s1) #guardo Y (minimo tabla 2) en data sb $s2,5($s1) #guardo X (maximo tabla 1) en data sw $t0,0($s1) #guardo color en data daddi $t0,$0,5 sd $t0,0($s0) # para pintar el pixel #Imprimir2 lwu $t0,azul($0) sb $s3,4($s1) #guardo y (minimo tabla 1) en data sb $s4,5($s1) #guardo x (maximo tabla 2) en data sw $t0,0($s1) #guardo color en data daddi $t0,$0,5 sd $t0,0($s0) # para pintar el pixel halt #a0 = tabla, a1 = longitud de tabla. MIN_MAX: daddi $v0,$0,-99 # v0 = Max daddi $v1,$0,99 # v1 = Min daddi $t0,$0,0 # numero temporal. lazo: beqz $a1, fin lb $t0,0($a0) #cargo el numero slt $t1,$t0,$v0 #comparo el max bnez $t1, saveMax slt $t1,$v0,$t0 #comparo el min bnez $t1, saveMin seguir: daddi $a0,$a0,1 #aumento a0 para recorrer mi tabla daddi $a1,$a1,-1 #descuento para el corte j lazo saveMax: daddi $v0,$0,$t0 #guardo Max. j seguir saveMin: daddi $v1,$0,$t0 #guardo Min. j seguir fin: jr $ra
ValentinoKvolek/Universidad
1,440
Arquitectura_de_Computadoras/practicas/practica 4/ejer3part2.s
.data CONTROL: .word 0x10000 DATA: .word 0x10008 num1: .byte 0 num2: .byte 0 operacion: .ascii suma: .ascii "+" resta: .ascii "-" mull: .ascii "*" divv: .ascii "/" .code ld $s0,suma($zero) ld $s1,resta($zero) ld $s2,mull($zero) ld $s3,divv($zero) ld $t0, CONTROL($zero) ld $t1, DATA($zero) daddi $t2, $zero, 8 # para leer un numero sd $t2,0($t0) #control == 8 #presiono una tecla y la cpu guarda el num en DATA lbu $t2, 0($t1) #lo tomo el caracter en t2 #guardo en variable sb $t2, num1($zero) daddi $t2,$zero,9 #leer ascii sd $t2,0($t0) #control == 9 lbu $t2, 0($t1) #lo tomo el caracter en t2 sb $t2, operacion($zero) #una vez guarde los dos numeros los sumo ld $t3,num1($zero) ld $t4,num2($zero) ld $t6,operacion($zero) daddi $t2, $zero, 8 # para leer un numero sd $t2,0($t0) #control == 8 #presiono una tecla y la cpu guarda el num en DATA lbu $t2, 0($t1) #lo tomo el caracter en t2 #guardo en variable sb $t2, num2($zero) beq $t6,$s0,sumar beq $t6,$s1,restar beq $t6,$s2,multiplicar beq $t6,$s3,dividir sumar: dadd $t5,$t3,$t4 dadd $t7,$zero,%t5 j fin restar: dsub $t5,$t3,$t4 dadd $t7,$zero,%t5 j fin dividir: ddiv $t5,$t3,$t4 dadd $t7,$zero,%t5 j fin multiplicar: dmul $t5,$t3,$t4 dadd $t7,$zero,%t5 j fin fin: sd $t5,0($t1) #guardo lo que dio la suma en data para impimir daddi $t2,$zero, 2 sd $t2,0($t0) #control == 2 halt
ValentinoKvolek/Universidad
1,164
Arquitectura_de_Computadoras/practicas/practica 4/ejer4part2.s
.data coorX: .byte 24 #coordenada X de un punto coorY: .byte 24 #coordenada Y de un punto color: .byte 255, 0, 255, 0 #color: máximo rojo + máximo azul => magenta CONTROL: .word 0x10000 DATA: .word 0x10008 .code ld $t0, CONTROL($zero) ld $t1, DATA($zero) daddi $t5,$zero,0 daddi $t6,$zero,49 daddi $t2, $zero, 8 # para leer un numero sd $t2,0($t0) #control == 8 lbu $t2, 0($t1) #lo tomo el caracter en t2 #guardo en variable sb $t2, coorX($zero) daddi $t2, $zero, 8 # para leer un numero sd $t2,0($t0) #control == 8 lbu $t2, 0($t1) #lo tomo el caracter en t2 #guardo en variable sb $t2, coorY($zero) loop: lwu $t2, color($zero) #t2 = calor del color a pintar sw $t2, 0($t1) #data recibe valor del color a pintar lbu $t2, coorX($zero) #t2 = valor de coor x sb $t2, 5($t1) #data + 5 = recibe cord x lbu $t2,coorY($zero)#t2 = y sb $t2, 4($t1) #dara + 4 recibe coords de y daddi $t2, $zero, 5 # t2 = 5 funcion 5 : salida grafica sd $t2, 0($t0) daddi $t5,$t5,1 sb $t5, coorY($zero) daddi $t6,$t6,-1 bnez $t6,loop halt
ValentinoKvolek/Universidad
1,969
Arquitectura_de_Computadoras/practicas/practica 4/ejer2part1.s
.data mensaje: .asciiz "ingrese una clave de 4 digitos \n" mensaje2: .asciiz "contraseña incorrecta" mensaje3: .asciiz "contraseña correcta" CONTROL: .word 0x10000 DATA: .word 0x10008 caracteres: .space 4 password: .ascii "aaaa" .code ld $t0, CONTROL($zero) #guardo el VALOR en t0 ld $t1, DATA($zero) #guardo el VALOR en t1 daddi $t2, $zero , mensaje #guardo la direccion en t2 sd $t2, 0 ($t1) # DATA recibe el puntero al comienzo del mensaje daddi $t2, $zero, 4 #aca remplazo el valor de t2 y lo pongo en 4 para imprimir ascci sd $t2, 0($t0) ; le paso a CONTROL el 4 y imprime daddi $t3, $zero , 4 #para ingresar 4 char daddi $t8, $zero , 0 loop: daddi $t2, $zero, 9 # pongo el 9 para leer un char sd $t2,0($t0) #control == 9 #presiono una tecla y la cpu guarda el char en DATA lbu $t2, 0($t1) #lo tomo el caracter en t2 #guardo en variable sb $t2, caracteres($t8) daddi $t3, $t3, -1 daddi $t8,$t8, 1 bnez $t3, loop daddi $t3, $zero , 4 #cant vecees daddi $t7, $zero , 0 # lo uso para desplazarme en ascci lazo: ld $t5,caracteres($t7) ld $t6,password($t7) bne $t5,$t6,noEs daddi $t7, $t7, 1 daddi $t3, $t3, -1 beqz $t3, lazo daddi $t2, $zero , mensaje3 #guardo la direccion en t2 daddi $t3, $zero , 4 #para ingresar 4 char sd $t2, 0 ($t1) # DATA recibe el puntero al comienzo del mensaje daddi $t2, $zero, 4 #aca remplazo el valor de t2 y lo pongo en 4 para imprimir ascci sd $t2, 0($t0) ; le paso a CONTROL el 4 y imprime j fin noEs: daddi $t2, $zero , mensaje2 #guardo la direccion en t2 daddi $t3, $zero , 4 #para ingresar 4 char sd $t2, 0 ($t1) # DATA recibe el puntero al comienzo del mensaje daddi $t2, $zero, 4 #aca remplazo el valor de t2 y lo pongo en 4 para imprimir ascci sd $t2, 0($t0) ; le paso a CONTROL el 4 y imprime j fin fin: halt
ValentinoKvolek/Universidad
1,985
Arquitectura_de_Computadoras/practicas/practica 4/ejer2b.s
.data mensaje: .asciiz "ingrese una clave de 4 digitos \n" mensaje2: .asciiz "contraseña incorrecta" mensaje3: .asciiz "contraseña correcta" CONTROL: .word 0x10000 DATA: .word 0x10008 caracteres: .space 4 password: .ascii "aaaa" .code ld $t0, CONTROL($zero) #guardo el VALOR en t0 ld $t1, DATA($zero) #guardo el VALOR en t1 daddi $t2, $zero , mensaje #guardo la direccion en t2 sd $t2, 0 ($t1) # DATA recibe el puntero al comienzo del mensaje daddi $t2, $zero, 4 #aca remplazo el valor de t2 y lo pongo en 4 para imprimir ascci sd $t2, 0($t0) ; le paso a CONTROL el 4 y imprime infinito: daddi $t3, $zero , 4 #para ingresar 4 char daddi $t8, $zero , 0 loop: daddi $t2, $zero, 9 # pongo el 9 para leer un char sd $t2,0($t0) #control == 9 #presiono una tecla y la cpu guarda el char en DATA lbu $t2, 0($t1) #lo tomo el caracter en t2 #guardo en variable sb $t2, caracteres($t8) daddi $t3, $t3, -1 daddi $t8,$t8, 1 bnez $t3, loop daddi $t3, $zero , 4 #cant vecees daddi $t7, $zero , 0 # lo uso para desplazarme en ascci lazo: ld $t5,caracteres($t7) ld $t6,password($t7) bne $t5,$t6,noEs daddi $t7, $t7, 1 daddi $t3, $t3, -1 beqz $t3, lazo daddi $t2, $zero , mensaje3 #guardo la direccion en t2 daddi $t3, $zero , 4 #para ingresar 4 char sd $t2, 0 ($t1) # DATA recibe el puntero al comienzo del mensaje daddi $t2, $zero, 4 #aca remplazo el valor de t2 y lo pongo en 4 para imprimir ascci sd $t2, 0($t0) ; le paso a CONTROL el 4 y imprime j fin noEs: daddi $t2, $zero , mensaje2 #guardo la direccion en t2 daddi $t3, $zero , 4 #para ingresar 4 char sd $t2, 0 ($t1) # DATA recibe el puntero al comienzo del mensaje daddi $t2, $zero, 4 #aca remplazo el valor de t2 y lo pongo en 4 para imprimir ascci sd $t2, 0($t0) ; le paso a CONTROL el 4 y imprime j infinito fin: halt
ValentinoKvolek/Universidad
2,677
Arquitectura_de_Computadoras/practicas/practica 4/ejer2cpart2.s
.data mensaje: .asciiz "ingrese una clave de 4 digitos \n" mensaje2: .asciiz "contraseña incorrecta" mensaje3: .asciiz "contraseña correcta" CONTROL: .word 0x10000 DATA: .word 0x10008 caracteres: .space 4 password: .ascii "aaaa" X: .word 0 stringAux: .ascii " intentos restantes" .code daddi $t9, $zero, 6 #intentos ld $t0, CONTROL($zero) #guardo el VALOR en t0 ld $t1, DATA($zero) #guardo el VALOR en t1 intento: daddi $t9, $t9, -1 sd $t9, X($zero) daddi $t2, $zero , mensaje #guardo la direccion en t2 sd $t2, 0 ($t1) # DATA recibe el puntero al comienzo del mensaje daddi $t2, $zero, 4 #aca remplazo el valor de t2 y lo pongo en 4 para imprimir ascci sd $t2, 0($t0) ; le paso a CONTROL el 4 y imprime daddi $t2, $zero , X #guardo la direccion en t2 sd $t2, 0 ($t1) # DATA recibe el puntero al comienzo del mensaje daddi $t2, $zero, 1 #aca remplazo el valor de t2 y lo pongo en 4 para imprimir ascii sd $t2, 0($t0) ; le paso a CONTROL el 1 y imprime daddi $t2, $zero , stringAux #guardo la direccion en t2 sd $t2, 0 ($t1) # DATA recibe el puntero al comienzo del mensaje daddi $t2, $zero, 4 #aca remplazo el valor de t2 y lo pongo en 4 para imprimir ascci sd $t2, 0($t0) ; le paso a CONTROL el 4 y imprime daddi $t3, $zero , 4 #para ingresar 4 char daddi $t8, $zero , 0 loop: daddi $t2, $zero, 9 # pongo el 9 para leer un char sd $t2,0($t0) #control == 9 #presiono una tecla y la cpu guarda el char en DATA lbu $t2, 0($t1) #lo tomo el caracter en t2 #guardo en variable sb $t2, caracteres($t8) daddi $t3, $t3, -1 daddi $t8,$t8, 1 bnez $t3, loop daddi $t3, $zero , 4 #cant vecees daddi $t7, $zero , 0 # lo uso para desplazarme en ascci lazo: ld $t5,caracteres($t7) ld $t6,password($t7) bne $t5,$t6,noEs daddi $t7, $t7, 1 daddi $t3, $t3, -1 beqz $t3, lazo daddi $t2, $zero , mensaje3 #guardo la direccion en t2 daddi $t3, $zero , 4 #para ingresar 4 char sd $t2, 0 ($t1) # DATA recibe el puntero al comienzo del mensaje daddi $t2, $zero, 4 #aca remplazo el valor de t2 y lo pongo en 4 para imprimir ascci sd $t2, 0($t0) ; le paso a CONTROL el 4 y imprime j fin noEs: daddi $t2, $zero , mensaje2 #guardo la direccion en t2 daddi $t3, $zero , 4 #para ingresar 4 char sd $t2, 0 ($t1) # DATA recibe el puntero al comienzo del mensaje daddi $t2, $zero, 4 #aca remplazo el valor de t2 y lo pongo en 4 para imprimir ascci sd $t2, 0($t0) ; le paso a CONTROL el 4 y imprime beqz $t9,fin j intento fin: halt
ValentinoKvolek/Universidad
2,884
Arquitectura_de_Computadoras/WinMIPS64/Sim-WinMips64/testio.s
; ; Example IO program ; .data int: .word 0xF9876543987625aa ; a 64-bit integer mes: .asciiz "Hello World\n" ; the message key: .asciiz "Press any key to exit\n" dub: .double 32.786 ; a double x: .byte 0 ; coordinates of a point y: .byte 0 col: .byte 255,0,255,0 ; the colour magenta ; ; Memory Mapped I/O area ; ; Address of CONTROL and DATA registers ; ; Set CONTROL = 1, Set DATA to Unsigned Integer to be output ; Set CONTROL = 2, Set DATA to Signed Integer to be output ; Set CONTROL = 3, Set DATA to Floating Point to be output ; Set CONTROL = 4, Set DATA to address of string to be output ; Set CONTROL = 5, Set DATA+5 to x coordinate, DATA+4 to y coordinate, and DATA to RGB colour to be output ; Set CONTROL = 6, Clears the terminal screen ; Set CONTROL = 7, Clears the graphics screen ; Set CONTROL = 8, read the DATA (either an integer or a floating-point) from the keyboard ; Set CONTROL = 9, read one byte from DATA, no character echo. ; CONTROL: .word32 0x10000 DATA: .word32 0x10008 .text lwu $t8,DATA($zero) ; $t8 = address of DATA register lwu $t9,CONTROL($zero) ; $t9 = address of CONTROL register daddi $v0,$zero,1 ; set for unsigned integer output ld $t1,int($zero) sd $t1,0($t8) ; write integer to DATA register sd $v0,0($t9) ; write to CONTROL register and make it happen daddi $v0,$zero,2 ; set for signed integer output ld $t1,int($zero) sd $t1,0($t8) ; write integer to DATA register sd $v0,0($t9) ; write to CONTROL register and make it happen daddi $v0,$zero,3 ; set for double output l.d f1,dub($zero) s.d f1,0($t8) ; write double to DATA register sd $v0,0($t9) ; write to CONTROL register and make it happen daddi $v0,$zero,4 ; set for ascii output daddi $t1,$zero,mes sd $t1,0($t8) ; write address of message to DATA register sd $v0,0($t9) ; make it happen daddi $v0,$zero,5 ; set for graphics output lbu $t2,x($zero) sb $t2,5($t8) ; store x in DATA+5 lbu $t3,y($zero) sb $t3,4($t8) ; store y in DATA+4 lwu $t1,col($zero) sw $t1,0($t8) ; store colour in DATA sd $v0,0($t9) ; draw it ; ; Now draw a line! ; daddi $t4,$zero,49 again: daddi $t2,$t2,1 ; increment x sb $t2,5($t8) ; store x in DATA+5 daddi $t3,$t3,1 ; increment y sb $t3,4($t8) ; store y in DATA+5 sd $v0,0($t9) ; draw it daddi $t4,$t4,-1 bnez $t4,again ; ; Finish off ; daddi $v0,$zero,4 ; set for ascii output daddi $t1,$zero,key sd $t1,0($t8) ; write address of message to DATA register sd $v0,0($t9) ; "Press any key to exit" daddi $v0,$zero,9 ; sd $v0,0($t9) ; Wait for a key press... ld $t1,0($t8) ; daddi $v0,$zero,6 ; sd $v0,0($t9) ; clear the terminal screen daddi $v0,$zero,7 ; sd $v0,0($t9) ; clear the graphics screen halt
ValentinoKvolek/Universidad
2,404
Arquitectura_de_Computadoras/WinMIPS64/Sim-WinMips64/hail.s
; ; Hailstone numbers iteration ; If number is odd, multiply by 3 and add 1 ; If number is even, divide it by 2 ; repeat this iteration until number is 1 ; What is the maximum value during this process? ; .data max: .word 0 ; max number so far title: .asciiz "Hailstone Numbers\n" prompt: .asciiz "Number= " str: .asciiz "Maximum= " ; ; Memory Mapped I/O area ; ; Address of CONTROL and DATA registers ; ; Set CONTROL = 1, Set DATA to Unsigned Integer to be output ; Set CONTROL = 2, Set DATA to Signed Integer to be output ; Set CONTROL = 3, Set DATA to Floating Point to be output ; Set CONTROL = 4, Set DATA to address of string to be output ; Set CONTROL = 5, Set DATA+5 to x coordinate, DATA+4 to y coordinate, and DATA to RGB colour to be output ; Set CONTROL = 6, Clears the terminal screen ; Set CONTROL = 7, Clears the graphics screen ; Set CONTROL = 8, read the DATA (either an integer or a floating-point) from the keyboard ; Set CONTROL = 9, read one byte from DATA, no character echo. ; CONTROL: .word32 0x10000 DATA: .word32 0x10008 .text lwu r8,DATA(r0) ; get data lwu r9,CONTROL(r0) ; and control registers daddi r11,r0,4 ; set for string output daddi r1,r0,title ; get title address sd r1,(r8) ; print title sd r11,(r9) daddi r1,r0,prompt ; get prompt address sd r1,0(r8) ; print prompt sd r11,0(r9) daddi r1,$zero,8 ; set for input sd r1,0(r9) ; get the hailstone start number ld r1,0(r8) sd r1,max(r0) ; first maximum daddi r12,r0,1 ; set for integer output loop: andi r3,r1,1 ; test odd or even beqz r3,even odd: daddu r2,r1,r1 ; times 2 dadd r1,r2,r1 ; times 3 daddi r1,r1,1 ; plus 1 j over even: dsrl r1,r1,1 ; divide by 2 over: sd r1,(r8) sd r12,(r9) ; display it ld r4,max(r0) slt r3,r4,r1 ; compare with max beqz r3,skip sd r1,max(r0) ; new maximum? skip: slti r3,r1,2 ; test for finished beqz r3,loop ld r2,max(r0) ; get max daddi r1,r0,str ; get address of "Maximum= " string sd r1,(r8) ; display "Maximum" sd r11,(r9) sd r2,(r8) ; output maximum sd r12,(r9) halt
Vecno-Foundation/vecno-testnet
6,073
crypto/hashes/src/keccakf1600_x86-64.s
# Source: https://github.com/dot-asm/cryptogams/blob/master/x86_64/keccak1600-x86_64.pl .text .type __KeccakF1600,@function .align 32 __KeccakF1600: .cfi_startproc .byte 0xf3,0x0f,0x1e,0xfa movq 60(%rdi),%rax movq 68(%rdi),%rbx movq 76(%rdi),%rcx movq 84(%rdi),%rdx movq 92(%rdi),%rbp jmp .Loop .align 32 .Loop: movq -100(%rdi),%r8 movq -52(%rdi),%r9 movq -4(%rdi),%r10 movq 44(%rdi),%r11 xorq -84(%rdi),%rcx xorq -76(%rdi),%rdx xorq %r8,%rax xorq -92(%rdi),%rbx xorq -44(%rdi),%rcx xorq -60(%rdi),%rax movq %rbp,%r12 xorq -68(%rdi),%rbp xorq %r10,%rcx xorq -20(%rdi),%rax xorq -36(%rdi),%rdx xorq %r9,%rbx xorq -28(%rdi),%rbp xorq 36(%rdi),%rcx xorq 20(%rdi),%rax xorq 4(%rdi),%rdx xorq -12(%rdi),%rbx xorq 12(%rdi),%rbp movq %rcx,%r13 rolq $1,%rcx xorq %rax,%rcx xorq %r11,%rdx rolq $1,%rax xorq %rdx,%rax xorq 28(%rdi),%rbx rolq $1,%rdx xorq %rbx,%rdx xorq 52(%rdi),%rbp rolq $1,%rbx xorq %rbp,%rbx rolq $1,%rbp xorq %r13,%rbp xorq %rcx,%r9 xorq %rdx,%r10 rolq $44,%r9 xorq %rbp,%r11 xorq %rax,%r12 rolq $43,%r10 xorq %rbx,%r8 movq %r9,%r13 rolq $21,%r11 orq %r10,%r9 xorq %r8,%r9 rolq $14,%r12 xorq (%r15),%r9 leaq 8(%r15),%r15 movq %r12,%r14 andq %r11,%r12 movq %r9,-100(%rsi) xorq %r10,%r12 notq %r10 movq %r12,-84(%rsi) orq %r11,%r10 movq 76(%rdi),%r12 xorq %r13,%r10 movq %r10,-92(%rsi) andq %r8,%r13 movq -28(%rdi),%r9 xorq %r14,%r13 movq -20(%rdi),%r10 movq %r13,-68(%rsi) orq %r8,%r14 movq -76(%rdi),%r8 xorq %r11,%r14 movq 28(%rdi),%r11 movq %r14,-76(%rsi) xorq %rbp,%r8 xorq %rdx,%r12 rolq $28,%r8 xorq %rcx,%r11 xorq %rax,%r9 rolq $61,%r12 rolq $45,%r11 xorq %rbx,%r10 rolq $20,%r9 movq %r8,%r13 orq %r12,%r8 rolq $3,%r10 xorq %r11,%r8 movq %r8,-36(%rsi) movq %r9,%r14 andq %r13,%r9 movq -92(%rdi),%r8 xorq %r12,%r9 notq %r12 movq %r9,-28(%rsi) orq %r11,%r12 movq -44(%rdi),%r9 xorq %r10,%r12 movq %r12,-44(%rsi) andq %r10,%r11 movq 60(%rdi),%r12 xorq %r14,%r11 movq %r11,-52(%rsi) orq %r10,%r14 movq 4(%rdi),%r10 xorq %r13,%r14 movq 52(%rdi),%r11 movq %r14,-60(%rsi) xorq %rbp,%r10 xorq %rax,%r11 rolq $25,%r10 xorq %rdx,%r9 rolq $8,%r11 xorq %rbx,%r12 rolq $6,%r9 xorq %rcx,%r8 rolq $18,%r12 movq %r10,%r13 andq %r11,%r10 rolq $1,%r8 notq %r11 xorq %r9,%r10 movq %r10,-12(%rsi) movq %r12,%r14 andq %r11,%r12 movq -12(%rdi),%r10 xorq %r13,%r12 movq %r12,-4(%rsi) orq %r9,%r13 movq 84(%rdi),%r12 xorq %r8,%r13 movq %r13,-20(%rsi) andq %r8,%r9 xorq %r14,%r9 movq %r9,12(%rsi) orq %r8,%r14 movq -60(%rdi),%r9 xorq %r11,%r14 movq 36(%rdi),%r11 movq %r14,4(%rsi) movq -68(%rdi),%r8 xorq %rcx,%r10 xorq %rdx,%r11 rolq $10,%r10 xorq %rbx,%r9 rolq $15,%r11 xorq %rbp,%r12 rolq $36,%r9 xorq %rax,%r8 rolq $56,%r12 movq %r10,%r13 orq %r11,%r10 rolq $27,%r8 notq %r11 xorq %r9,%r10 movq %r10,28(%rsi) movq %r12,%r14 orq %r11,%r12 xorq %r13,%r12 movq %r12,36(%rsi) andq %r9,%r13 xorq %r8,%r13 movq %r13,20(%rsi) orq %r8,%r9 xorq %r14,%r9 movq %r9,52(%rsi) andq %r14,%r8 xorq %r11,%r8 movq %r8,44(%rsi) xorq -84(%rdi),%rdx xorq -36(%rdi),%rbp rolq $62,%rdx xorq 68(%rdi),%rcx rolq $55,%rbp xorq 12(%rdi),%rax rolq $2,%rcx xorq 20(%rdi),%rbx xchgq %rsi,%rdi rolq $39,%rax rolq $41,%rbx movq %rdx,%r13 andq %rbp,%rdx notq %rbp xorq %rcx,%rdx movq %rdx,92(%rdi) movq %rax,%r14 andq %rbp,%rax xorq %r13,%rax movq %rax,60(%rdi) orq %rcx,%r13 xorq %rbx,%r13 movq %r13,84(%rdi) andq %rbx,%rcx xorq %r14,%rcx movq %rcx,76(%rdi) orq %r14,%rbx xorq %rbp,%rbx movq %rbx,68(%rdi) movq %rdx,%rbp movq %r13,%rdx testq $255,%r15 jnz .Loop leaq -192(%r15),%r15 .byte 0xf3,0xc3 .cfi_endproc .size __KeccakF1600,.-__KeccakF1600 .globl KeccakF1600 .type KeccakF1600,@function .align 32 KeccakF1600: .cfi_startproc .byte 0xf3,0x0f,0x1e,0xfa pushq %rbx .cfi_adjust_cfa_offset 8 .cfi_offset %rbx,-16 pushq %rbp .cfi_adjust_cfa_offset 8 .cfi_offset %rbp,-24 pushq %r12 .cfi_adjust_cfa_offset 8 .cfi_offset %r12,-32 pushq %r13 .cfi_adjust_cfa_offset 8 .cfi_offset %r13,-40 pushq %r14 .cfi_adjust_cfa_offset 8 .cfi_offset %r14,-48 pushq %r15 .cfi_adjust_cfa_offset 8 .cfi_offset %r15,-56 leaq 100(%rdi),%rdi subq $200,%rsp .cfi_adjust_cfa_offset 200 notq -92(%rdi) notq -84(%rdi) notq -36(%rdi) notq -4(%rdi) notq 36(%rdi) notq 60(%rdi) leaq iotas(%rip),%r15 leaq 100(%rsp),%rsi call __KeccakF1600 notq -92(%rdi) notq -84(%rdi) notq -36(%rdi) notq -4(%rdi) notq 36(%rdi) notq 60(%rdi) leaq -100(%rdi),%rdi addq $200,%rsp .cfi_adjust_cfa_offset -200 popq %r15 .cfi_adjust_cfa_offset -8 .cfi_restore %r15 popq %r14 .cfi_adjust_cfa_offset -8 .cfi_restore %r14 popq %r13 .cfi_adjust_cfa_offset -8 .cfi_restore %r13 popq %r12 .cfi_adjust_cfa_offset -8 .cfi_restore %r12 popq %rbp .cfi_adjust_cfa_offset -8 .cfi_restore %rbp popq %rbx .cfi_adjust_cfa_offset -8 .cfi_restore %rbx .byte 0xf3,0xc3 .cfi_endproc .size KeccakF1600,.-KeccakF1600 .align 256 .quad 0,0,0,0,0,0,0,0 .type iotas,@object iotas: .quad 0x0000000000000001 .quad 0x0000000000008082 .quad 0x800000000000808a .quad 0x8000000080008000 .quad 0x000000000000808b .quad 0x0000000080000001 .quad 0x8000000080008081 .quad 0x8000000000008009 .quad 0x000000000000008a .quad 0x0000000000000088 .quad 0x0000000080008009 .quad 0x000000008000000a .quad 0x000000008000808b .quad 0x800000000000008b .quad 0x8000000000008089 .quad 0x8000000000008003 .quad 0x8000000000008002 .quad 0x8000000000000080 .quad 0x000000000000800a .quad 0x800000008000000a .quad 0x8000000080008081 .quad 0x8000000000008080 .quad 0x0000000080000001 .quad 0x8000000080008008 .size iotas,.-iotas .byte 75,101,99,99,97,107,45,49,54,48,48,32,97,98,115,111,114,98,32,97,110,100,32,115,113,117,101,101,122,101,32,102,111,114,32,120,56,54,95,54,52,44,32,67,82,89,80,84,79,71,65,77,83,32,98,121,32,60,97,112,112,114,111,64,111,112,101,110,115,115,108,46,111,114,103,62,0 .section .note.gnu.property,"a",@note .long 4,2f-1f,5 .byte 0x47,0x4E,0x55,0 1: .long 0xc0000002,4,3 .align 8 2:
Vecno-Foundation/vecno-testnet
5,802
crypto/hashes/src/keccakf1600_x86-64-osx.s
# Source: https://github.com/dot-asm/cryptogams/blob/master/x86_64/keccak1600-x86_64.pl .text .p2align 5 __KeccakF1600: .cfi_startproc .byte 0xf3,0x0f,0x1e,0xfa movq 60(%rdi),%rax movq 68(%rdi),%rbx movq 76(%rdi),%rcx movq 84(%rdi),%rdx movq 92(%rdi),%rbp jmp L$oop .p2align 5 L$oop: movq -100(%rdi),%r8 movq -52(%rdi),%r9 movq -4(%rdi),%r10 movq 44(%rdi),%r11 xorq -84(%rdi),%rcx xorq -76(%rdi),%rdx xorq %r8,%rax xorq -92(%rdi),%rbx xorq -44(%rdi),%rcx xorq -60(%rdi),%rax movq %rbp,%r12 xorq -68(%rdi),%rbp xorq %r10,%rcx xorq -20(%rdi),%rax xorq -36(%rdi),%rdx xorq %r9,%rbx xorq -28(%rdi),%rbp xorq 36(%rdi),%rcx xorq 20(%rdi),%rax xorq 4(%rdi),%rdx xorq -12(%rdi),%rbx xorq 12(%rdi),%rbp movq %rcx,%r13 rolq $1,%rcx xorq %rax,%rcx xorq %r11,%rdx rolq $1,%rax xorq %rdx,%rax xorq 28(%rdi),%rbx rolq $1,%rdx xorq %rbx,%rdx xorq 52(%rdi),%rbp rolq $1,%rbx xorq %rbp,%rbx rolq $1,%rbp xorq %r13,%rbp xorq %rcx,%r9 xorq %rdx,%r10 rolq $44,%r9 xorq %rbp,%r11 xorq %rax,%r12 rolq $43,%r10 xorq %rbx,%r8 movq %r9,%r13 rolq $21,%r11 orq %r10,%r9 xorq %r8,%r9 rolq $14,%r12 xorq (%r15),%r9 leaq 8(%r15),%r15 movq %r12,%r14 andq %r11,%r12 movq %r9,-100(%rsi) xorq %r10,%r12 notq %r10 movq %r12,-84(%rsi) orq %r11,%r10 movq 76(%rdi),%r12 xorq %r13,%r10 movq %r10,-92(%rsi) andq %r8,%r13 movq -28(%rdi),%r9 xorq %r14,%r13 movq -20(%rdi),%r10 movq %r13,-68(%rsi) orq %r8,%r14 movq -76(%rdi),%r8 xorq %r11,%r14 movq 28(%rdi),%r11 movq %r14,-76(%rsi) xorq %rbp,%r8 xorq %rdx,%r12 rolq $28,%r8 xorq %rcx,%r11 xorq %rax,%r9 rolq $61,%r12 rolq $45,%r11 xorq %rbx,%r10 rolq $20,%r9 movq %r8,%r13 orq %r12,%r8 rolq $3,%r10 xorq %r11,%r8 movq %r8,-36(%rsi) movq %r9,%r14 andq %r13,%r9 movq -92(%rdi),%r8 xorq %r12,%r9 notq %r12 movq %r9,-28(%rsi) orq %r11,%r12 movq -44(%rdi),%r9 xorq %r10,%r12 movq %r12,-44(%rsi) andq %r10,%r11 movq 60(%rdi),%r12 xorq %r14,%r11 movq %r11,-52(%rsi) orq %r10,%r14 movq 4(%rdi),%r10 xorq %r13,%r14 movq 52(%rdi),%r11 movq %r14,-60(%rsi) xorq %rbp,%r10 xorq %rax,%r11 rolq $25,%r10 xorq %rdx,%r9 rolq $8,%r11 xorq %rbx,%r12 rolq $6,%r9 xorq %rcx,%r8 rolq $18,%r12 movq %r10,%r13 andq %r11,%r10 rolq $1,%r8 notq %r11 xorq %r9,%r10 movq %r10,-12(%rsi) movq %r12,%r14 andq %r11,%r12 movq -12(%rdi),%r10 xorq %r13,%r12 movq %r12,-4(%rsi) orq %r9,%r13 movq 84(%rdi),%r12 xorq %r8,%r13 movq %r13,-20(%rsi) andq %r8,%r9 xorq %r14,%r9 movq %r9,12(%rsi) orq %r8,%r14 movq -60(%rdi),%r9 xorq %r11,%r14 movq 36(%rdi),%r11 movq %r14,4(%rsi) movq -68(%rdi),%r8 xorq %rcx,%r10 xorq %rdx,%r11 rolq $10,%r10 xorq %rbx,%r9 rolq $15,%r11 xorq %rbp,%r12 rolq $36,%r9 xorq %rax,%r8 rolq $56,%r12 movq %r10,%r13 orq %r11,%r10 rolq $27,%r8 notq %r11 xorq %r9,%r10 movq %r10,28(%rsi) movq %r12,%r14 orq %r11,%r12 xorq %r13,%r12 movq %r12,36(%rsi) andq %r9,%r13 xorq %r8,%r13 movq %r13,20(%rsi) orq %r8,%r9 xorq %r14,%r9 movq %r9,52(%rsi) andq %r14,%r8 xorq %r11,%r8 movq %r8,44(%rsi) xorq -84(%rdi),%rdx xorq -36(%rdi),%rbp rolq $62,%rdx xorq 68(%rdi),%rcx rolq $55,%rbp xorq 12(%rdi),%rax rolq $2,%rcx xorq 20(%rdi),%rbx xchgq %rsi,%rdi rolq $39,%rax rolq $41,%rbx movq %rdx,%r13 andq %rbp,%rdx notq %rbp xorq %rcx,%rdx movq %rdx,92(%rdi) movq %rax,%r14 andq %rbp,%rax xorq %r13,%rax movq %rax,60(%rdi) orq %rcx,%r13 xorq %rbx,%r13 movq %r13,84(%rdi) andq %rbx,%rcx xorq %r14,%rcx movq %rcx,76(%rdi) orq %r14,%rbx xorq %rbp,%rbx movq %rbx,68(%rdi) movq %rdx,%rbp movq %r13,%rdx testq $255,%r15 jnz L$oop leaq -192(%r15),%r15 .byte 0xf3,0xc3 .cfi_endproc .globl _KeccakF1600 .p2align 5 _KeccakF1600: .cfi_startproc .byte 0xf3,0x0f,0x1e,0xfa pushq %rbx .cfi_adjust_cfa_offset 8 .cfi_offset %rbx,-16 pushq %rbp .cfi_adjust_cfa_offset 8 .cfi_offset %rbp,-24 pushq %r12 .cfi_adjust_cfa_offset 8 .cfi_offset %r12,-32 pushq %r13 .cfi_adjust_cfa_offset 8 .cfi_offset %r13,-40 pushq %r14 .cfi_adjust_cfa_offset 8 .cfi_offset %r14,-48 pushq %r15 .cfi_adjust_cfa_offset 8 .cfi_offset %r15,-56 leaq 100(%rdi),%rdi subq $200,%rsp .cfi_adjust_cfa_offset 200 notq -92(%rdi) notq -84(%rdi) notq -36(%rdi) notq -4(%rdi) notq 36(%rdi) notq 60(%rdi) leaq iotas(%rip),%r15 leaq 100(%rsp),%rsi call __KeccakF1600 notq -92(%rdi) notq -84(%rdi) notq -36(%rdi) notq -4(%rdi) notq 36(%rdi) notq 60(%rdi) leaq -100(%rdi),%rdi addq $200,%rsp .cfi_adjust_cfa_offset -200 popq %r15 .cfi_adjust_cfa_offset -8 .cfi_restore %r15 popq %r14 .cfi_adjust_cfa_offset -8 .cfi_restore %r14 popq %r13 .cfi_adjust_cfa_offset -8 .cfi_restore %r13 popq %r12 .cfi_adjust_cfa_offset -8 .cfi_restore %r12 popq %rbp .cfi_adjust_cfa_offset -8 .cfi_restore %rbp popq %rbx .cfi_adjust_cfa_offset -8 .cfi_restore %rbx .byte 0xf3,0xc3 .cfi_endproc .p2align 8 .quad 0,0,0,0,0,0,0,0 iotas: .quad 0x0000000000000001 .quad 0x0000000000008082 .quad 0x800000000000808a .quad 0x8000000080008000 .quad 0x000000000000808b .quad 0x0000000080000001 .quad 0x8000000080008081 .quad 0x8000000000008009 .quad 0x000000000000008a .quad 0x0000000000000088 .quad 0x0000000080008009 .quad 0x000000008000000a .quad 0x000000008000808b .quad 0x800000000000008b .quad 0x8000000000008089 .quad 0x8000000000008003 .quad 0x8000000000008002 .quad 0x8000000000000080 .quad 0x000000000000800a .quad 0x800000008000000a .quad 0x8000000080008081 .quad 0x8000000000008080 .quad 0x0000000080000001 .quad 0x8000000080008008 .byte 75,101,99,99,97,107,45,49,54,48,48,32,97,98,115,111,114,98,32,97,110,100,32,115,113,117,101,101,122,101,32,102,111,114,32,120,56,54,95,54,52,44,32,67,82,89,80,84,79,71,65,77,83,32,98,121,32,60,97,112,112,114,111,64,111,112,101,110,115,115,108,46,111,114,103,62,0
verdict-x509/verdict
210,728
deps/libcrux/sys/hacl/c/vale/src/aesgcm-x86_64-mingw.S
.text .global aes128_key_expansion aes128_key_expansion: movdqu 0(%rcx), %xmm1 movdqu %xmm1, 0(%rdx) aeskeygenassist $1, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 16(%rdx) aeskeygenassist $2, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 32(%rdx) aeskeygenassist $4, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 48(%rdx) aeskeygenassist $8, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 64(%rdx) aeskeygenassist $16, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 80(%rdx) aeskeygenassist $32, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 96(%rdx) aeskeygenassist $64, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 112(%rdx) aeskeygenassist $128, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 128(%rdx) aeskeygenassist $27, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 144(%rdx) aeskeygenassist $54, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 160(%rdx) pxor %xmm1, %xmm1 pxor %xmm2, %xmm2 pxor %xmm3, %xmm3 ret .global aes128_keyhash_init aes128_keyhash_init: mov $579005069656919567, %r8 pinsrq $0, %r8, %xmm4 mov $283686952306183, %r8 pinsrq $1, %r8, %xmm4 pxor %xmm0, %xmm0 movdqu %xmm0, 80(%rdx) mov %rcx, %r8 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pshufb %xmm4, %xmm0 mov %rdx, %rcx movdqu %xmm0, 32(%rcx) movdqu %xmm6, %xmm0 mov %r12, %rax movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 0(%rcx) movdqu %xmm6, %xmm1 movdqu %xmm6, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 16(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 48(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 64(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 96(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 112(%rcx) movdqu %xmm0, %xmm6 mov %rax, %r12 ret .global aes256_key_expansion aes256_key_expansion: movdqu 0(%rcx), %xmm1 movdqu 16(%rcx), %xmm3 movdqu %xmm1, 0(%rdx) movdqu %xmm3, 16(%rdx) aeskeygenassist $1, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 32(%rdx) aeskeygenassist $0, %xmm1, %xmm2 pshufd $170, %xmm2, %xmm2 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 pxor %xmm2, %xmm3 movdqu %xmm3, 48(%rdx) aeskeygenassist $2, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 64(%rdx) aeskeygenassist $0, %xmm1, %xmm2 pshufd $170, %xmm2, %xmm2 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 pxor %xmm2, %xmm3 movdqu %xmm3, 80(%rdx) aeskeygenassist $4, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 96(%rdx) aeskeygenassist $0, %xmm1, %xmm2 pshufd $170, %xmm2, %xmm2 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 pxor %xmm2, %xmm3 movdqu %xmm3, 112(%rdx) aeskeygenassist $8, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 128(%rdx) aeskeygenassist $0, %xmm1, %xmm2 pshufd $170, %xmm2, %xmm2 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 pxor %xmm2, %xmm3 movdqu %xmm3, 144(%rdx) aeskeygenassist $16, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 160(%rdx) aeskeygenassist $0, %xmm1, %xmm2 pshufd $170, %xmm2, %xmm2 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 pxor %xmm2, %xmm3 movdqu %xmm3, 176(%rdx) aeskeygenassist $32, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 192(%rdx) aeskeygenassist $0, %xmm1, %xmm2 pshufd $170, %xmm2, %xmm2 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 pxor %xmm2, %xmm3 movdqu %xmm3, 208(%rdx) aeskeygenassist $64, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 224(%rdx) pxor %xmm1, %xmm1 pxor %xmm2, %xmm2 pxor %xmm3, %xmm3 pxor %xmm4, %xmm4 ret .global aes256_keyhash_init aes256_keyhash_init: mov $579005069656919567, %r8 pinsrq $0, %r8, %xmm4 mov $283686952306183, %r8 pinsrq $1, %r8, %xmm4 pxor %xmm0, %xmm0 movdqu %xmm0, 80(%rdx) mov %rcx, %r8 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pshufb %xmm4, %xmm0 mov %rdx, %rcx movdqu %xmm0, 32(%rcx) movdqu %xmm6, %xmm0 mov %r12, %rax movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 0(%rcx) movdqu %xmm6, %xmm1 movdqu %xmm6, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 16(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 48(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 64(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 96(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 112(%rcx) movdqu %xmm0, %xmm6 mov %rax, %r12 ret .global gctr128_bytes gctr128_bytes: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx pextrq $0, %xmm15, %rax push %rax pextrq $1, %xmm15, %rax push %rax pextrq $0, %xmm14, %rax push %rax pextrq $1, %xmm14, %rax push %rax pextrq $0, %xmm13, %rax push %rax pextrq $1, %xmm13, %rax push %rax pextrq $0, %xmm12, %rax push %rax pextrq $1, %xmm12, %rax push %rax pextrq $0, %xmm11, %rax push %rax pextrq $1, %xmm11, %rax push %rax pextrq $0, %xmm10, %rax push %rax pextrq $1, %xmm10, %rax push %rax pextrq $0, %xmm9, %rax push %rax pextrq $1, %xmm9, %rax push %rax pextrq $0, %xmm8, %rax push %rax pextrq $1, %xmm8, %rax push %rax pextrq $0, %xmm7, %rax push %rax pextrq $1, %xmm7, %rax push %rax pextrq $0, %xmm6, %rax push %rax pextrq $1, %xmm6, %rax push %rax mov 272(%rsp), %rax movdqu 0(%rax), %xmm7 mov %rcx, %rax mov %r8, %rbx mov %rdx, %rsi mov %r9, %r13 mov 264(%rsp), %r8 mov 280(%rsp), %rcx mov %rcx, %rbp imul $16, %rbp mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm8 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm8 mov %rcx, %rdx shr $2, %rdx and $3, %rcx cmp $0, %rdx jbe L0 mov %rax, %r9 mov %rbx, %r10 pshufb %xmm8, %xmm7 movdqu %xmm7, %xmm9 mov $579005069656919567, %rax pinsrq $0, %rax, %xmm0 mov $579005069656919567, %rax pinsrq $1, %rax, %xmm0 pshufb %xmm0, %xmm9 movdqu %xmm9, %xmm10 pxor %xmm3, %xmm3 mov $1, %rax pinsrd $2, %eax, %xmm3 paddd %xmm3, %xmm9 mov $3, %rax pinsrd $2, %eax, %xmm3 mov $2, %rax pinsrd $0, %eax, %xmm3 paddd %xmm3, %xmm10 pshufb %xmm8, %xmm9 pshufb %xmm8, %xmm10 pextrq $0, %xmm7, %rdi mov $283686952306183, %rax pinsrq $0, %rax, %xmm0 mov $579005069656919567, %rax pinsrq $1, %rax, %xmm0 pxor %xmm15, %xmm15 mov $4, %rax pinsrd $0, %eax, %xmm15 mov $4, %rax pinsrd $2, %eax, %xmm15 jmp L3 .balign 16 L2: pinsrq $0, %rdi, %xmm2 pinsrq $0, %rdi, %xmm12 pinsrq $0, %rdi, %xmm13 pinsrq $0, %rdi, %xmm14 shufpd $2, %xmm9, %xmm2 shufpd $0, %xmm9, %xmm12 shufpd $2, %xmm10, %xmm13 shufpd $0, %xmm10, %xmm14 pshufb %xmm0, %xmm9 pshufb %xmm0, %xmm10 movdqu 0(%r8), %xmm3 movdqu 16(%r8), %xmm4 movdqu 32(%r8), %xmm5 movdqu 48(%r8), %xmm6 paddd %xmm15, %xmm9 paddd %xmm15, %xmm10 pxor %xmm3, %xmm2 pxor %xmm3, %xmm12 pxor %xmm3, %xmm13 pxor %xmm3, %xmm14 pshufb %xmm0, %xmm9 pshufb %xmm0, %xmm10 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 aesenc %xmm5, %xmm2 aesenc %xmm5, %xmm12 aesenc %xmm5, %xmm13 aesenc %xmm5, %xmm14 aesenc %xmm6, %xmm2 aesenc %xmm6, %xmm12 aesenc %xmm6, %xmm13 aesenc %xmm6, %xmm14 movdqu 64(%r8), %xmm3 movdqu 80(%r8), %xmm4 movdqu 96(%r8), %xmm5 movdqu 112(%r8), %xmm6 aesenc %xmm3, %xmm2 aesenc %xmm3, %xmm12 aesenc %xmm3, %xmm13 aesenc %xmm3, %xmm14 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 aesenc %xmm5, %xmm2 aesenc %xmm5, %xmm12 aesenc %xmm5, %xmm13 aesenc %xmm5, %xmm14 aesenc %xmm6, %xmm2 aesenc %xmm6, %xmm12 aesenc %xmm6, %xmm13 aesenc %xmm6, %xmm14 movdqu 128(%r8), %xmm3 movdqu 144(%r8), %xmm4 movdqu 160(%r8), %xmm5 aesenc %xmm3, %xmm2 aesenc %xmm3, %xmm12 aesenc %xmm3, %xmm13 aesenc %xmm3, %xmm14 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 aesenclast %xmm5, %xmm2 aesenclast %xmm5, %xmm12 aesenclast %xmm5, %xmm13 aesenclast %xmm5, %xmm14 movdqu 0(%r9), %xmm7 pxor %xmm7, %xmm2 movdqu 16(%r9), %xmm7 pxor %xmm7, %xmm12 movdqu 32(%r9), %xmm7 pxor %xmm7, %xmm13 movdqu 48(%r9), %xmm7 pxor %xmm7, %xmm14 movdqu %xmm2, 0(%r10) movdqu %xmm12, 16(%r10) movdqu %xmm13, 32(%r10) movdqu %xmm14, 48(%r10) sub $1, %rdx add $64, %r9 add $64, %r10 .balign 16 L3: cmp $0, %rdx ja L2 movdqu %xmm9, %xmm7 pinsrq $0, %rdi, %xmm7 pshufb %xmm8, %xmm7 mov %r9, %rax mov %r10, %rbx jmp L1 L0: L1: mov $0, %rdx mov %rax, %r9 mov %rbx, %r10 pxor %xmm4, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 jmp L5 .balign 16 L4: movdqu %xmm7, %xmm0 pshufb %xmm8, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%r9), %xmm2 pxor %xmm0, %xmm2 movdqu %xmm2, 0(%r10) add $1, %rdx add $16, %r9 add $16, %r10 paddd %xmm4, %xmm7 .balign 16 L5: cmp %rcx, %rdx jne L4 cmp %rbp, %rsi jbe L6 movdqu 0(%r13), %xmm1 movdqu %xmm7, %xmm0 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm2 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm2 pshufb %xmm2, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pxor %xmm0, %xmm1 movdqu %xmm1, 0(%r13) jmp L7 L6: L7: pop %rax pinsrq $1, %rax, %xmm6 pop %rax pinsrq $0, %rax, %xmm6 pop %rax pinsrq $1, %rax, %xmm7 pop %rax pinsrq $0, %rax, %xmm7 pop %rax pinsrq $1, %rax, %xmm8 pop %rax pinsrq $0, %rax, %xmm8 pop %rax pinsrq $1, %rax, %xmm9 pop %rax pinsrq $0, %rax, %xmm9 pop %rax pinsrq $1, %rax, %xmm10 pop %rax pinsrq $0, %rax, %xmm10 pop %rax pinsrq $1, %rax, %xmm11 pop %rax pinsrq $0, %rax, %xmm11 pop %rax pinsrq $1, %rax, %xmm12 pop %rax pinsrq $0, %rax, %xmm12 pop %rax pinsrq $1, %rax, %xmm13 pop %rax pinsrq $0, %rax, %xmm13 pop %rax pinsrq $1, %rax, %xmm14 pop %rax pinsrq $0, %rax, %xmm14 pop %rax pinsrq $1, %rax, %xmm15 pop %rax pinsrq $0, %rax, %xmm15 pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 ret .global gctr256_bytes gctr256_bytes: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx pextrq $0, %xmm15, %rax push %rax pextrq $1, %xmm15, %rax push %rax pextrq $0, %xmm14, %rax push %rax pextrq $1, %xmm14, %rax push %rax pextrq $0, %xmm13, %rax push %rax pextrq $1, %xmm13, %rax push %rax pextrq $0, %xmm12, %rax push %rax pextrq $1, %xmm12, %rax push %rax pextrq $0, %xmm11, %rax push %rax pextrq $1, %xmm11, %rax push %rax pextrq $0, %xmm10, %rax push %rax pextrq $1, %xmm10, %rax push %rax pextrq $0, %xmm9, %rax push %rax pextrq $1, %xmm9, %rax push %rax pextrq $0, %xmm8, %rax push %rax pextrq $1, %xmm8, %rax push %rax pextrq $0, %xmm7, %rax push %rax pextrq $1, %xmm7, %rax push %rax pextrq $0, %xmm6, %rax push %rax pextrq $1, %xmm6, %rax push %rax mov 272(%rsp), %rax movdqu 0(%rax), %xmm7 mov %rcx, %rax mov %r8, %rbx mov %rdx, %rsi mov %r9, %r13 mov 264(%rsp), %r8 mov 280(%rsp), %rcx mov %rcx, %rbp imul $16, %rbp mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm8 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm8 mov %rcx, %rdx shr $2, %rdx and $3, %rcx cmp $0, %rdx jbe L8 mov %rax, %r9 mov %rbx, %r10 pshufb %xmm8, %xmm7 movdqu %xmm7, %xmm9 mov $579005069656919567, %rax pinsrq $0, %rax, %xmm0 mov $579005069656919567, %rax pinsrq $1, %rax, %xmm0 pshufb %xmm0, %xmm9 movdqu %xmm9, %xmm10 pxor %xmm3, %xmm3 mov $1, %rax pinsrd $2, %eax, %xmm3 paddd %xmm3, %xmm9 mov $3, %rax pinsrd $2, %eax, %xmm3 mov $2, %rax pinsrd $0, %eax, %xmm3 paddd %xmm3, %xmm10 pshufb %xmm8, %xmm9 pshufb %xmm8, %xmm10 pextrq $0, %xmm7, %rdi mov $283686952306183, %rax pinsrq $0, %rax, %xmm0 mov $579005069656919567, %rax pinsrq $1, %rax, %xmm0 pxor %xmm15, %xmm15 mov $4, %rax pinsrd $0, %eax, %xmm15 mov $4, %rax pinsrd $2, %eax, %xmm15 jmp L11 .balign 16 L10: pinsrq $0, %rdi, %xmm2 pinsrq $0, %rdi, %xmm12 pinsrq $0, %rdi, %xmm13 pinsrq $0, %rdi, %xmm14 shufpd $2, %xmm9, %xmm2 shufpd $0, %xmm9, %xmm12 shufpd $2, %xmm10, %xmm13 shufpd $0, %xmm10, %xmm14 pshufb %xmm0, %xmm9 pshufb %xmm0, %xmm10 movdqu 0(%r8), %xmm3 movdqu 16(%r8), %xmm4 movdqu 32(%r8), %xmm5 movdqu 48(%r8), %xmm6 paddd %xmm15, %xmm9 paddd %xmm15, %xmm10 pxor %xmm3, %xmm2 pxor %xmm3, %xmm12 pxor %xmm3, %xmm13 pxor %xmm3, %xmm14 pshufb %xmm0, %xmm9 pshufb %xmm0, %xmm10 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 aesenc %xmm5, %xmm2 aesenc %xmm5, %xmm12 aesenc %xmm5, %xmm13 aesenc %xmm5, %xmm14 aesenc %xmm6, %xmm2 aesenc %xmm6, %xmm12 aesenc %xmm6, %xmm13 aesenc %xmm6, %xmm14 movdqu 64(%r8), %xmm3 movdqu 80(%r8), %xmm4 movdqu 96(%r8), %xmm5 movdqu 112(%r8), %xmm6 aesenc %xmm3, %xmm2 aesenc %xmm3, %xmm12 aesenc %xmm3, %xmm13 aesenc %xmm3, %xmm14 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 aesenc %xmm5, %xmm2 aesenc %xmm5, %xmm12 aesenc %xmm5, %xmm13 aesenc %xmm5, %xmm14 aesenc %xmm6, %xmm2 aesenc %xmm6, %xmm12 aesenc %xmm6, %xmm13 aesenc %xmm6, %xmm14 movdqu 128(%r8), %xmm3 movdqu 144(%r8), %xmm4 movdqu 160(%r8), %xmm5 aesenc %xmm3, %xmm2 aesenc %xmm3, %xmm12 aesenc %xmm3, %xmm13 aesenc %xmm3, %xmm14 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 movdqu %xmm5, %xmm3 movdqu 176(%r8), %xmm4 movdqu 192(%r8), %xmm5 movdqu 208(%r8), %xmm6 aesenc %xmm3, %xmm2 aesenc %xmm3, %xmm12 aesenc %xmm3, %xmm13 aesenc %xmm3, %xmm14 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 aesenc %xmm5, %xmm2 aesenc %xmm5, %xmm12 aesenc %xmm5, %xmm13 aesenc %xmm5, %xmm14 aesenc %xmm6, %xmm2 aesenc %xmm6, %xmm12 aesenc %xmm6, %xmm13 aesenc %xmm6, %xmm14 movdqu 224(%r8), %xmm5 aesenclast %xmm5, %xmm2 aesenclast %xmm5, %xmm12 aesenclast %xmm5, %xmm13 aesenclast %xmm5, %xmm14 movdqu 0(%r9), %xmm7 pxor %xmm7, %xmm2 movdqu 16(%r9), %xmm7 pxor %xmm7, %xmm12 movdqu 32(%r9), %xmm7 pxor %xmm7, %xmm13 movdqu 48(%r9), %xmm7 pxor %xmm7, %xmm14 movdqu %xmm2, 0(%r10) movdqu %xmm12, 16(%r10) movdqu %xmm13, 32(%r10) movdqu %xmm14, 48(%r10) sub $1, %rdx add $64, %r9 add $64, %r10 .balign 16 L11: cmp $0, %rdx ja L10 movdqu %xmm9, %xmm7 pinsrq $0, %rdi, %xmm7 pshufb %xmm8, %xmm7 mov %r9, %rax mov %r10, %rbx jmp L9 L8: L9: mov $0, %rdx mov %rax, %r9 mov %rbx, %r10 pxor %xmm4, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 jmp L13 .balign 16 L12: movdqu %xmm7, %xmm0 pshufb %xmm8, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%r9), %xmm2 pxor %xmm0, %xmm2 movdqu %xmm2, 0(%r10) add $1, %rdx add $16, %r9 add $16, %r10 paddd %xmm4, %xmm7 .balign 16 L13: cmp %rcx, %rdx jne L12 cmp %rbp, %rsi jbe L14 movdqu 0(%r13), %xmm1 movdqu %xmm7, %xmm0 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm2 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm2 pshufb %xmm2, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pxor %xmm0, %xmm1 movdqu %xmm1, 0(%r13) jmp L15 L14: L15: pop %rax pinsrq $1, %rax, %xmm6 pop %rax pinsrq $0, %rax, %xmm6 pop %rax pinsrq $1, %rax, %xmm7 pop %rax pinsrq $0, %rax, %xmm7 pop %rax pinsrq $1, %rax, %xmm8 pop %rax pinsrq $0, %rax, %xmm8 pop %rax pinsrq $1, %rax, %xmm9 pop %rax pinsrq $0, %rax, %xmm9 pop %rax pinsrq $1, %rax, %xmm10 pop %rax pinsrq $0, %rax, %xmm10 pop %rax pinsrq $1, %rax, %xmm11 pop %rax pinsrq $0, %rax, %xmm11 pop %rax pinsrq $1, %rax, %xmm12 pop %rax pinsrq $0, %rax, %xmm12 pop %rax pinsrq $1, %rax, %xmm13 pop %rax pinsrq $0, %rax, %xmm13 pop %rax pinsrq $1, %rax, %xmm14 pop %rax pinsrq $0, %rax, %xmm14 pop %rax pinsrq $1, %rax, %xmm15 pop %rax pinsrq $0, %rax, %xmm15 pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 ret .global compute_iv_stdcall compute_iv_stdcall: cmp $12, %rdx jne L16 push %rdi push %rsi mov %rcx, %rdi mov %rdx, %rsi mov %r8, %rdx mov %r9, %rcx mov 56(%rsp), %r8 mov 64(%rsp), %r9 cmp $12, %rsi jne L18 movdqu 0(%r8), %xmm0 mov $579005069656919567, %rax pinsrq $0, %rax, %xmm1 mov $283686952306183, %rax pinsrq $1, %rax, %xmm1 pshufb %xmm1, %xmm0 mov $1, %rax pinsrd $0, %eax, %xmm0 movdqu %xmm0, 0(%rcx) jmp L19 L18: mov %rcx, %rax add $32, %r9 mov %r8, %rbx mov %rdx, %rcx imul $16, %rcx mov $579005069656919567, %r10 pinsrq $0, %r10, %xmm9 mov $283686952306183, %r10 pinsrq $1, %r10, %xmm9 pxor %xmm8, %xmm8 mov %rdi, %r11 jmp L21 .balign 16 L20: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L21: cmp $6, %rdx jae L20 cmp $0, %rdx jbe L22 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L24 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L25 L24: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L26 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L28 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L30 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L31 L30: L31: jmp L29 L28: L29: jmp L27 L26: L27: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L25: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L23 L22: L23: mov %rsi, %r15 cmp %rcx, %rsi jbe L32 movdqu 0(%rbx), %xmm0 mov %rsi, %r10 and $15, %r10 cmp $8, %r10 jae L34 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L35 L34: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L35: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L33 L32: L33: mov %rax, %rcx mov $0, %r11 mov %rsi, %r13 pxor %xmm0, %xmm0 mov %r11, %rax imul $8, %rax pinsrq $1, %rax, %xmm0 mov %r13, %rax imul $8, %rax pinsrq $0, %rax, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu %xmm8, 0(%rcx) L19: pop %rsi pop %rdi jmp L17 L16: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx pextrq $0, %xmm15, %rax push %rax pextrq $1, %xmm15, %rax push %rax pextrq $0, %xmm14, %rax push %rax pextrq $1, %xmm14, %rax push %rax pextrq $0, %xmm13, %rax push %rax pextrq $1, %xmm13, %rax push %rax pextrq $0, %xmm12, %rax push %rax pextrq $1, %xmm12, %rax push %rax pextrq $0, %xmm11, %rax push %rax pextrq $1, %xmm11, %rax push %rax pextrq $0, %xmm10, %rax push %rax pextrq $1, %xmm10, %rax push %rax pextrq $0, %xmm9, %rax push %rax pextrq $1, %xmm9, %rax push %rax pextrq $0, %xmm8, %rax push %rax pextrq $1, %xmm8, %rax push %rax pextrq $0, %xmm7, %rax push %rax pextrq $1, %xmm7, %rax push %rax pextrq $0, %xmm6, %rax push %rax pextrq $1, %xmm6, %rax push %rax mov %rcx, %rdi mov %rdx, %rsi mov %r8, %rdx mov %r9, %rcx mov 264(%rsp), %r8 mov 272(%rsp), %r9 cmp $12, %rsi jne L36 movdqu 0(%r8), %xmm0 mov $579005069656919567, %rax pinsrq $0, %rax, %xmm1 mov $283686952306183, %rax pinsrq $1, %rax, %xmm1 pshufb %xmm1, %xmm0 mov $1, %rax pinsrd $0, %eax, %xmm0 movdqu %xmm0, 0(%rcx) jmp L37 L36: mov %rcx, %rax add $32, %r9 mov %r8, %rbx mov %rdx, %rcx imul $16, %rcx mov $579005069656919567, %r10 pinsrq $0, %r10, %xmm9 mov $283686952306183, %r10 pinsrq $1, %r10, %xmm9 pxor %xmm8, %xmm8 mov %rdi, %r11 jmp L39 .balign 16 L38: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L39: cmp $6, %rdx jae L38 cmp $0, %rdx jbe L40 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L42 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L43 L42: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L44 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L46 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L48 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L49 L48: L49: jmp L47 L46: L47: jmp L45 L44: L45: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L43: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L41 L40: L41: mov %rsi, %r15 cmp %rcx, %rsi jbe L50 movdqu 0(%rbx), %xmm0 mov %rsi, %r10 and $15, %r10 cmp $8, %r10 jae L52 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L53 L52: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L53: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L51 L50: L51: mov %rax, %rcx mov $0, %r11 mov %rsi, %r13 pxor %xmm0, %xmm0 mov %r11, %rax imul $8, %rax pinsrq $1, %rax, %xmm0 mov %r13, %rax imul $8, %rax pinsrq $0, %rax, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu %xmm8, 0(%rcx) L37: pop %rax pinsrq $1, %rax, %xmm6 pop %rax pinsrq $0, %rax, %xmm6 pop %rax pinsrq $1, %rax, %xmm7 pop %rax pinsrq $0, %rax, %xmm7 pop %rax pinsrq $1, %rax, %xmm8 pop %rax pinsrq $0, %rax, %xmm8 pop %rax pinsrq $1, %rax, %xmm9 pop %rax pinsrq $0, %rax, %xmm9 pop %rax pinsrq $1, %rax, %xmm10 pop %rax pinsrq $0, %rax, %xmm10 pop %rax pinsrq $1, %rax, %xmm11 pop %rax pinsrq $0, %rax, %xmm11 pop %rax pinsrq $1, %rax, %xmm12 pop %rax pinsrq $0, %rax, %xmm12 pop %rax pinsrq $1, %rax, %xmm13 pop %rax pinsrq $0, %rax, %xmm13 pop %rax pinsrq $1, %rax, %xmm14 pop %rax pinsrq $0, %rax, %xmm14 pop %rax pinsrq $1, %rax, %xmm15 pop %rax pinsrq $0, %rax, %xmm15 pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 L17: ret .global gcm128_encrypt_opt gcm128_encrypt_opt: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx pextrq $0, %xmm15, %rax push %rax pextrq $1, %xmm15, %rax push %rax pextrq $0, %xmm14, %rax push %rax pextrq $1, %xmm14, %rax push %rax pextrq $0, %xmm13, %rax push %rax pextrq $1, %xmm13, %rax push %rax pextrq $0, %xmm12, %rax push %rax pextrq $1, %xmm12, %rax push %rax pextrq $0, %xmm11, %rax push %rax pextrq $1, %xmm11, %rax push %rax pextrq $0, %xmm10, %rax push %rax pextrq $1, %xmm10, %rax push %rax pextrq $0, %xmm9, %rax push %rax pextrq $1, %xmm9, %rax push %rax pextrq $0, %xmm8, %rax push %rax pextrq $1, %xmm8, %rax push %rax pextrq $0, %xmm7, %rax push %rax pextrq $1, %xmm7, %rax push %rax pextrq $0, %xmm6, %rax push %rax pextrq $1, %xmm6, %rax push %rax mov %rcx, %rdi mov %rdx, %rsi mov %r8, %rdx mov %r9, %rcx mov 264(%rsp), %r8 mov 272(%rsp), %r9 mov 352(%rsp), %rbp mov %rcx, %r13 lea 32(%r9), %r9 mov 280(%rsp), %rbx mov %rdx, %rcx imul $16, %rcx mov $579005069656919567, %r10 pinsrq $0, %r10, %xmm9 mov $283686952306183, %r10 pinsrq $1, %r10, %xmm9 pxor %xmm8, %xmm8 mov %rdi, %r11 jmp L55 .balign 16 L54: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L55: cmp $6, %rdx jae L54 cmp $0, %rdx jbe L56 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L58 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L59 L58: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L60 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L62 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L64 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L65 L64: L65: jmp L63 L62: L63: jmp L61 L60: L61: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L59: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L57 L56: L57: mov %rsi, %r15 cmp %rcx, %rsi jbe L66 movdqu 0(%rbx), %xmm0 mov %rsi, %r10 and $15, %r10 cmp $8, %r10 jae L68 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L69 L68: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L69: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L67 L66: L67: mov 288(%rsp), %rdi mov 296(%rsp), %rsi mov 304(%rsp), %rdx mov %r13, %rcx movdqu %xmm9, %xmm0 movdqu 0(%r8), %xmm1 movdqu %xmm1, 0(%rbp) pxor %xmm10, %xmm10 mov $1, %r11 pinsrq $0, %r11, %xmm10 vpaddd %xmm10, %xmm1, %xmm1 cmp $0, %rdx jne L70 vpshufb %xmm0, %xmm1, %xmm1 movdqu %xmm1, 32(%rbp) jmp L71 L70: movdqu %xmm8, 32(%rbp) add $128, %rcx pextrq $0, %xmm1, %rbx and $255, %rbx vpshufb %xmm0, %xmm1, %xmm1 lea 96(%rsi), %r14 movdqu -128(%rcx), %xmm4 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 movdqu -112(%rcx), %xmm15 mov %rcx, %r12 sub $96, %r12 vpxor %xmm4, %xmm1, %xmm9 add $6, %rbx cmp $256, %rbx jae L72 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm2, %xmm11, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm2, %xmm12, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpaddd %xmm2, %xmm14, %xmm1 vpxor %xmm4, %xmm14, %xmm14 jmp L73 L72: sub $256, %rbx vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpshufb %xmm0, %xmm14, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpshufb %xmm0, %xmm1, %xmm1 vpxor %xmm4, %xmm14, %xmm14 L73: vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -16(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 16(%rcx), %xmm15 movdqu 32(%rcx), %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor 0(%rdi), %xmm3, %xmm4 vaesenc %xmm15, %xmm10, %xmm10 vpxor 16(%rdi), %xmm3, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 vpxor 32(%rdi), %xmm3, %xmm6 vaesenc %xmm15, %xmm12, %xmm12 vpxor 48(%rdi), %xmm3, %xmm8 vaesenc %xmm15, %xmm13, %xmm13 vpxor 64(%rdi), %xmm3, %xmm2 vaesenc %xmm15, %xmm14, %xmm14 vpxor 80(%rdi), %xmm3, %xmm3 lea 96(%rdi), %rdi vaesenclast %xmm4, %xmm9, %xmm9 vaesenclast %xmm5, %xmm10, %xmm10 vaesenclast %xmm6, %xmm11, %xmm11 vaesenclast %xmm8, %xmm12, %xmm12 vaesenclast %xmm2, %xmm13, %xmm13 vaesenclast %xmm3, %xmm14, %xmm14 movdqu %xmm9, 0(%rsi) movdqu %xmm10, 16(%rsi) movdqu %xmm11, 32(%rsi) movdqu %xmm12, 48(%rsi) movdqu %xmm13, 64(%rsi) movdqu %xmm14, 80(%rsi) lea 96(%rsi), %rsi vpshufb %xmm0, %xmm9, %xmm8 vpshufb %xmm0, %xmm10, %xmm2 movdqu %xmm8, 112(%rbp) vpshufb %xmm0, %xmm11, %xmm4 movdqu %xmm2, 96(%rbp) vpshufb %xmm0, %xmm12, %xmm5 movdqu %xmm4, 80(%rbp) vpshufb %xmm0, %xmm13, %xmm6 movdqu %xmm5, 64(%rbp) vpshufb %xmm0, %xmm14, %xmm7 movdqu %xmm6, 48(%rbp) movdqu -128(%rcx), %xmm4 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 movdqu -112(%rcx), %xmm15 mov %rcx, %r12 sub $96, %r12 vpxor %xmm4, %xmm1, %xmm9 add $6, %rbx cmp $256, %rbx jae L74 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm2, %xmm11, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm2, %xmm12, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpaddd %xmm2, %xmm14, %xmm1 vpxor %xmm4, %xmm14, %xmm14 jmp L75 L74: sub $256, %rbx vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpshufb %xmm0, %xmm14, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpshufb %xmm0, %xmm1, %xmm1 vpxor %xmm4, %xmm14, %xmm14 L75: vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -16(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 16(%rcx), %xmm15 movdqu 32(%rcx), %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor 0(%rdi), %xmm3, %xmm4 vaesenc %xmm15, %xmm10, %xmm10 vpxor 16(%rdi), %xmm3, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 vpxor 32(%rdi), %xmm3, %xmm6 vaesenc %xmm15, %xmm12, %xmm12 vpxor 48(%rdi), %xmm3, %xmm8 vaesenc %xmm15, %xmm13, %xmm13 vpxor 64(%rdi), %xmm3, %xmm2 vaesenc %xmm15, %xmm14, %xmm14 vpxor 80(%rdi), %xmm3, %xmm3 lea 96(%rdi), %rdi vaesenclast %xmm4, %xmm9, %xmm9 vaesenclast %xmm5, %xmm10, %xmm10 vaesenclast %xmm6, %xmm11, %xmm11 vaesenclast %xmm8, %xmm12, %xmm12 vaesenclast %xmm2, %xmm13, %xmm13 vaesenclast %xmm3, %xmm14, %xmm14 movdqu %xmm9, 0(%rsi) movdqu %xmm10, 16(%rsi) movdqu %xmm11, 32(%rsi) movdqu %xmm12, 48(%rsi) movdqu %xmm13, 64(%rsi) movdqu %xmm14, 80(%rsi) lea 96(%rsi), %rsi sub $12, %rdx movdqu 32(%rbp), %xmm8 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vpxor %xmm4, %xmm4, %xmm4 movdqu -128(%rcx), %xmm15 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpaddd %xmm2, %xmm11, %xmm12 vpaddd %xmm2, %xmm12, %xmm13 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm4, 16(%rbp) jmp L77 .balign 16 L76: add $6, %rbx cmp $256, %rbx jb L78 mov $579005069656919567, %r11 pinsrq $0, %r11, %xmm0 mov $283686952306183, %r11 pinsrq $1, %r11, %xmm0 vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 movdqu -32(%r9), %xmm3 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm15, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm15, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpshufb %xmm0, %xmm14, %xmm14 vpshufb %xmm0, %xmm1, %xmm1 sub $256, %rbx jmp L79 L78: movdqu -32(%r9), %xmm3 vpaddd %xmm14, %xmm2, %xmm1 vpxor %xmm15, %xmm10, %xmm10 vpxor %xmm15, %xmm11, %xmm11 L79: movdqu %xmm1, 128(%rbp) vpclmulqdq $16, %xmm3, %xmm7, %xmm5 vpxor %xmm15, %xmm12, %xmm12 movdqu -112(%rcx), %xmm2 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vaesenc %xmm2, %xmm9, %xmm9 movdqu 48(%rbp), %xmm0 vpxor %xmm15, %xmm13, %xmm13 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vaesenc %xmm2, %xmm10, %xmm10 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 vaesenc %xmm2, %xmm11, %xmm11 movdqu -16(%r9), %xmm3 vaesenc %xmm2, %xmm12, %xmm12 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vaesenc %xmm2, %xmm13, %xmm13 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vaesenc %xmm2, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 vaesenc %xmm15, %xmm10, %xmm10 movbeq 88(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 80(%r14), %r12 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 32(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 40(%rbp) movdqu 16(%r9), %xmm5 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vaesenc %xmm15, %xmm11, %xmm11 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vaesenc %xmm15, %xmm10, %xmm10 movbeq 72(%r14), %r13 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 movbeq 64(%r14), %r12 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 48(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 56(%rbp) vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vaesenc %xmm15, %xmm10, %xmm10 movbeq 56(%r14), %r13 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vaesenc %xmm15, %xmm11, %xmm11 movbeq 48(%r14), %r12 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 64(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 72(%rbp) vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vaesenc %xmm15, %xmm10, %xmm10 movbeq 40(%r14), %r13 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 movbeq 32(%r14), %r12 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 80(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 88(%rbp) vpxor %xmm5, %xmm6, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor %xmm1, %xmm6, %xmm6 movdqu -16(%rcx), %xmm15 vpslldq $8, %xmm6, %xmm5 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $13979173243358019584, %r11 pinsrq $1, %r11, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm8, %xmm7, %xmm7 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm5, %xmm4, %xmm4 movbeq 24(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 16(%r14), %r12 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 movq %r13, 96(%rbp) vaesenc %xmm15, %xmm12, %xmm12 movq %r12, 104(%rbp) vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm1 vaesenc %xmm1, %xmm9, %xmm9 movdqu 16(%rcx), %xmm15 vaesenc %xmm1, %xmm10, %xmm10 vpsrldq $8, %xmm6, %xmm6 vaesenc %xmm1, %xmm11, %xmm11 vpxor %xmm6, %xmm7, %xmm7 vaesenc %xmm1, %xmm12, %xmm12 vpxor %xmm0, %xmm4, %xmm4 movbeq 8(%r14), %r13 vaesenc %xmm1, %xmm13, %xmm13 movbeq 0(%r14), %r12 vaesenc %xmm1, %xmm14, %xmm14 movdqu 32(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 movdqu %xmm7, 16(%rbp) vpalignr $8, %xmm4, %xmm4, %xmm8 vaesenc %xmm15, %xmm10, %xmm10 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor 0(%rdi), %xmm1, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 vpxor 16(%rdi), %xmm1, %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vpxor 32(%rdi), %xmm1, %xmm5 vaesenc %xmm15, %xmm13, %xmm13 vpxor 48(%rdi), %xmm1, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor 64(%rdi), %xmm1, %xmm7 vpxor 80(%rdi), %xmm1, %xmm3 movdqu 128(%rbp), %xmm1 vaesenclast %xmm2, %xmm9, %xmm9 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vaesenclast %xmm0, %xmm10, %xmm10 vpaddd %xmm2, %xmm1, %xmm0 movq %r13, 112(%rbp) lea 96(%rdi), %rdi vaesenclast %xmm5, %xmm11, %xmm11 vpaddd %xmm2, %xmm0, %xmm5 movq %r12, 120(%rbp) lea 96(%rsi), %rsi movdqu -128(%rcx), %xmm15 vaesenclast %xmm6, %xmm12, %xmm12 vpaddd %xmm2, %xmm5, %xmm6 vaesenclast %xmm7, %xmm13, %xmm13 vpaddd %xmm2, %xmm6, %xmm7 vaesenclast %xmm3, %xmm14, %xmm14 vpaddd %xmm2, %xmm7, %xmm3 sub $6, %rdx add $96, %r14 cmp $0, %rdx jbe L80 movdqu %xmm9, -96(%rsi) vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm10, -80(%rsi) movdqu %xmm0, %xmm10 movdqu %xmm11, -64(%rsi) movdqu %xmm5, %xmm11 movdqu %xmm12, -48(%rsi) movdqu %xmm6, %xmm12 movdqu %xmm13, -32(%rsi) movdqu %xmm7, %xmm13 movdqu %xmm14, -16(%rsi) movdqu %xmm3, %xmm14 movdqu 32(%rbp), %xmm7 jmp L81 L80: vpxor 16(%rbp), %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 L81: .balign 16 L77: cmp $0, %rdx ja L76 movdqu 32(%rbp), %xmm7 movdqu %xmm1, 32(%rbp) pxor %xmm4, %xmm4 movdqu %xmm4, 16(%rbp) movdqu -32(%r9), %xmm3 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vpclmulqdq $16, %xmm3, %xmm7, %xmm5 movdqu 48(%rbp), %xmm0 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 movdqu -16(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 movdqu 16(%r9), %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vpxor %xmm5, %xmm6, %xmm6 vpxor %xmm1, %xmm6, %xmm6 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $3254779904, %rax pinsrd $3, %eax, %xmm3 vpxor %xmm8, %xmm7, %xmm7 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm0 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm0 movdqu %xmm9, -96(%rsi) vpshufb %xmm0, %xmm9, %xmm9 vpxor %xmm7, %xmm1, %xmm1 movdqu %xmm10, -80(%rsi) vpshufb %xmm0, %xmm10, %xmm10 movdqu %xmm11, -64(%rsi) vpshufb %xmm0, %xmm11, %xmm11 movdqu %xmm12, -48(%rsi) vpshufb %xmm0, %xmm12, %xmm12 movdqu %xmm13, -32(%rsi) vpshufb %xmm0, %xmm13, %xmm13 movdqu %xmm14, -16(%rsi) vpshufb %xmm0, %xmm14, %xmm14 pxor %xmm4, %xmm4 movdqu %xmm14, %xmm7 movdqu %xmm4, 16(%rbp) movdqu %xmm13, 48(%rbp) movdqu %xmm12, 64(%rbp) movdqu %xmm11, 80(%rbp) movdqu %xmm10, 96(%rbp) movdqu %xmm9, 112(%rbp) movdqu -32(%r9), %xmm3 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vpclmulqdq $16, %xmm3, %xmm7, %xmm5 movdqu 48(%rbp), %xmm0 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 movdqu -16(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 movdqu 16(%r9), %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vpxor %xmm5, %xmm6, %xmm6 vpxor %xmm1, %xmm6, %xmm6 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $3254779904, %rax pinsrd $3, %eax, %xmm3 vpxor %xmm8, %xmm7, %xmm7 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 sub $128, %rcx L71: movdqu 32(%rbp), %xmm11 mov %rcx, %r8 mov 312(%rsp), %rax mov 320(%rsp), %rdi mov 328(%rsp), %rdx mov %rdx, %r14 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm9 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm9 pshufb %xmm9, %xmm11 pxor %xmm10, %xmm10 mov $1, %rbx pinsrd $0, %ebx, %xmm10 mov %rax, %r11 mov %rdi, %r10 mov $0, %rbx jmp L83 .balign 16 L82: movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%r11), %xmm2 pxor %xmm0, %xmm2 movdqu %xmm2, 0(%r10) add $1, %rbx add $16, %r11 add $16, %r10 paddd %xmm10, %xmm11 .balign 16 L83: cmp %rdx, %rbx jne L82 mov %rdi, %r11 jmp L85 .balign 16 L84: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L85: cmp $6, %rdx jae L84 cmp $0, %rdx jbe L86 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L88 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L89 L88: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L90 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L92 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L94 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L95 L94: L95: jmp L93 L92: L93: jmp L91 L90: L91: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L89: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L87 L86: L87: add 304(%rsp), %r14 imul $16, %r14 mov 344(%rsp), %r13 cmp %r14, %r13 jbe L96 mov 336(%rsp), %rax mov %r13, %r10 and $15, %r10 movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%rax), %xmm4 pxor %xmm4, %xmm0 movdqu %xmm0, 0(%rax) cmp $8, %r10 jae L98 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L99 L98: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L99: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L97 L96: L97: mov %r15, %r11 pxor %xmm0, %xmm0 mov %r11, %rax imul $8, %rax pinsrq $1, %rax, %xmm0 mov %r13, %rax imul $8, %rax pinsrq $0, %rax, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu 0(%rbp), %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pshufb %xmm9, %xmm8 pxor %xmm0, %xmm8 mov 360(%rsp), %r15 movdqu %xmm8, 0(%r15) pop %rax pinsrq $1, %rax, %xmm6 pop %rax pinsrq $0, %rax, %xmm6 pop %rax pinsrq $1, %rax, %xmm7 pop %rax pinsrq $0, %rax, %xmm7 pop %rax pinsrq $1, %rax, %xmm8 pop %rax pinsrq $0, %rax, %xmm8 pop %rax pinsrq $1, %rax, %xmm9 pop %rax pinsrq $0, %rax, %xmm9 pop %rax pinsrq $1, %rax, %xmm10 pop %rax pinsrq $0, %rax, %xmm10 pop %rax pinsrq $1, %rax, %xmm11 pop %rax pinsrq $0, %rax, %xmm11 pop %rax pinsrq $1, %rax, %xmm12 pop %rax pinsrq $0, %rax, %xmm12 pop %rax pinsrq $1, %rax, %xmm13 pop %rax pinsrq $0, %rax, %xmm13 pop %rax pinsrq $1, %rax, %xmm14 pop %rax pinsrq $0, %rax, %xmm14 pop %rax pinsrq $1, %rax, %xmm15 pop %rax pinsrq $0, %rax, %xmm15 pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 ret .global gcm256_encrypt_opt gcm256_encrypt_opt: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx pextrq $0, %xmm15, %rax push %rax pextrq $1, %xmm15, %rax push %rax pextrq $0, %xmm14, %rax push %rax pextrq $1, %xmm14, %rax push %rax pextrq $0, %xmm13, %rax push %rax pextrq $1, %xmm13, %rax push %rax pextrq $0, %xmm12, %rax push %rax pextrq $1, %xmm12, %rax push %rax pextrq $0, %xmm11, %rax push %rax pextrq $1, %xmm11, %rax push %rax pextrq $0, %xmm10, %rax push %rax pextrq $1, %xmm10, %rax push %rax pextrq $0, %xmm9, %rax push %rax pextrq $1, %xmm9, %rax push %rax pextrq $0, %xmm8, %rax push %rax pextrq $1, %xmm8, %rax push %rax pextrq $0, %xmm7, %rax push %rax pextrq $1, %xmm7, %rax push %rax pextrq $0, %xmm6, %rax push %rax pextrq $1, %xmm6, %rax push %rax mov %rcx, %rdi mov %rdx, %rsi mov %r8, %rdx mov %r9, %rcx mov 264(%rsp), %r8 mov 272(%rsp), %r9 mov 352(%rsp), %rbp mov %rcx, %r13 lea 32(%r9), %r9 mov 280(%rsp), %rbx mov %rdx, %rcx imul $16, %rcx mov $579005069656919567, %r10 pinsrq $0, %r10, %xmm9 mov $283686952306183, %r10 pinsrq $1, %r10, %xmm9 pxor %xmm8, %xmm8 mov %rdi, %r11 jmp L101 .balign 16 L100: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L101: cmp $6, %rdx jae L100 cmp $0, %rdx jbe L102 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L104 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L105 L104: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L106 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L108 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L110 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L111 L110: L111: jmp L109 L108: L109: jmp L107 L106: L107: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L105: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L103 L102: L103: mov %rsi, %r15 cmp %rcx, %rsi jbe L112 movdqu 0(%rbx), %xmm0 mov %rsi, %r10 and $15, %r10 cmp $8, %r10 jae L114 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L115 L114: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L115: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L113 L112: L113: mov 288(%rsp), %rdi mov 296(%rsp), %rsi mov 304(%rsp), %rdx mov %r13, %rcx movdqu %xmm9, %xmm0 movdqu 0(%r8), %xmm1 movdqu %xmm1, 0(%rbp) pxor %xmm10, %xmm10 mov $1, %r11 pinsrq $0, %r11, %xmm10 vpaddd %xmm10, %xmm1, %xmm1 cmp $0, %rdx jne L116 vpshufb %xmm0, %xmm1, %xmm1 movdqu %xmm1, 32(%rbp) jmp L117 L116: movdqu %xmm8, 32(%rbp) add $128, %rcx pextrq $0, %xmm1, %rbx and $255, %rbx vpshufb %xmm0, %xmm1, %xmm1 lea 96(%rsi), %r14 movdqu -128(%rcx), %xmm4 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 movdqu -112(%rcx), %xmm15 mov %rcx, %r12 sub $96, %r12 vpxor %xmm4, %xmm1, %xmm9 add $6, %rbx cmp $256, %rbx jae L118 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm2, %xmm11, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm2, %xmm12, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpaddd %xmm2, %xmm14, %xmm1 vpxor %xmm4, %xmm14, %xmm14 jmp L119 L118: sub $256, %rbx vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpshufb %xmm0, %xmm14, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpshufb %xmm0, %xmm1, %xmm1 vpxor %xmm4, %xmm14, %xmm14 L119: vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -16(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 16(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 32(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 48(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 64(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 80(%rcx), %xmm15 movdqu 96(%rcx), %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor 0(%rdi), %xmm3, %xmm4 vaesenc %xmm15, %xmm10, %xmm10 vpxor 16(%rdi), %xmm3, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 vpxor 32(%rdi), %xmm3, %xmm6 vaesenc %xmm15, %xmm12, %xmm12 vpxor 48(%rdi), %xmm3, %xmm8 vaesenc %xmm15, %xmm13, %xmm13 vpxor 64(%rdi), %xmm3, %xmm2 vaesenc %xmm15, %xmm14, %xmm14 vpxor 80(%rdi), %xmm3, %xmm3 lea 96(%rdi), %rdi vaesenclast %xmm4, %xmm9, %xmm9 vaesenclast %xmm5, %xmm10, %xmm10 vaesenclast %xmm6, %xmm11, %xmm11 vaesenclast %xmm8, %xmm12, %xmm12 vaesenclast %xmm2, %xmm13, %xmm13 vaesenclast %xmm3, %xmm14, %xmm14 movdqu %xmm9, 0(%rsi) movdqu %xmm10, 16(%rsi) movdqu %xmm11, 32(%rsi) movdqu %xmm12, 48(%rsi) movdqu %xmm13, 64(%rsi) movdqu %xmm14, 80(%rsi) lea 96(%rsi), %rsi vpshufb %xmm0, %xmm9, %xmm8 vpshufb %xmm0, %xmm10, %xmm2 movdqu %xmm8, 112(%rbp) vpshufb %xmm0, %xmm11, %xmm4 movdqu %xmm2, 96(%rbp) vpshufb %xmm0, %xmm12, %xmm5 movdqu %xmm4, 80(%rbp) vpshufb %xmm0, %xmm13, %xmm6 movdqu %xmm5, 64(%rbp) vpshufb %xmm0, %xmm14, %xmm7 movdqu %xmm6, 48(%rbp) movdqu -128(%rcx), %xmm4 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 movdqu -112(%rcx), %xmm15 mov %rcx, %r12 sub $96, %r12 vpxor %xmm4, %xmm1, %xmm9 add $6, %rbx cmp $256, %rbx jae L120 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm2, %xmm11, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm2, %xmm12, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpaddd %xmm2, %xmm14, %xmm1 vpxor %xmm4, %xmm14, %xmm14 jmp L121 L120: sub $256, %rbx vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpshufb %xmm0, %xmm14, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpshufb %xmm0, %xmm1, %xmm1 vpxor %xmm4, %xmm14, %xmm14 L121: vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -16(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 16(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 32(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 48(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 64(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 80(%rcx), %xmm15 movdqu 96(%rcx), %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor 0(%rdi), %xmm3, %xmm4 vaesenc %xmm15, %xmm10, %xmm10 vpxor 16(%rdi), %xmm3, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 vpxor 32(%rdi), %xmm3, %xmm6 vaesenc %xmm15, %xmm12, %xmm12 vpxor 48(%rdi), %xmm3, %xmm8 vaesenc %xmm15, %xmm13, %xmm13 vpxor 64(%rdi), %xmm3, %xmm2 vaesenc %xmm15, %xmm14, %xmm14 vpxor 80(%rdi), %xmm3, %xmm3 lea 96(%rdi), %rdi vaesenclast %xmm4, %xmm9, %xmm9 vaesenclast %xmm5, %xmm10, %xmm10 vaesenclast %xmm6, %xmm11, %xmm11 vaesenclast %xmm8, %xmm12, %xmm12 vaesenclast %xmm2, %xmm13, %xmm13 vaesenclast %xmm3, %xmm14, %xmm14 movdqu %xmm9, 0(%rsi) movdqu %xmm10, 16(%rsi) movdqu %xmm11, 32(%rsi) movdqu %xmm12, 48(%rsi) movdqu %xmm13, 64(%rsi) movdqu %xmm14, 80(%rsi) lea 96(%rsi), %rsi sub $12, %rdx movdqu 32(%rbp), %xmm8 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vpxor %xmm4, %xmm4, %xmm4 movdqu -128(%rcx), %xmm15 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpaddd %xmm2, %xmm11, %xmm12 vpaddd %xmm2, %xmm12, %xmm13 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm4, 16(%rbp) jmp L123 .balign 16 L122: add $6, %rbx cmp $256, %rbx jb L124 mov $579005069656919567, %r11 pinsrq $0, %r11, %xmm0 mov $283686952306183, %r11 pinsrq $1, %r11, %xmm0 vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 movdqu -32(%r9), %xmm3 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm15, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm15, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpshufb %xmm0, %xmm14, %xmm14 vpshufb %xmm0, %xmm1, %xmm1 sub $256, %rbx jmp L125 L124: movdqu -32(%r9), %xmm3 vpaddd %xmm14, %xmm2, %xmm1 vpxor %xmm15, %xmm10, %xmm10 vpxor %xmm15, %xmm11, %xmm11 L125: movdqu %xmm1, 128(%rbp) vpclmulqdq $16, %xmm3, %xmm7, %xmm5 vpxor %xmm15, %xmm12, %xmm12 movdqu -112(%rcx), %xmm2 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vaesenc %xmm2, %xmm9, %xmm9 movdqu 48(%rbp), %xmm0 vpxor %xmm15, %xmm13, %xmm13 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vaesenc %xmm2, %xmm10, %xmm10 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 vaesenc %xmm2, %xmm11, %xmm11 movdqu -16(%r9), %xmm3 vaesenc %xmm2, %xmm12, %xmm12 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vaesenc %xmm2, %xmm13, %xmm13 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vaesenc %xmm2, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 vaesenc %xmm15, %xmm10, %xmm10 movbeq 88(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 80(%r14), %r12 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 32(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 40(%rbp) movdqu 16(%r9), %xmm5 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vaesenc %xmm15, %xmm11, %xmm11 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vaesenc %xmm15, %xmm10, %xmm10 movbeq 72(%r14), %r13 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 movbeq 64(%r14), %r12 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 48(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 56(%rbp) vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vaesenc %xmm15, %xmm10, %xmm10 movbeq 56(%r14), %r13 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vaesenc %xmm15, %xmm11, %xmm11 movbeq 48(%r14), %r12 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 64(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 72(%rbp) vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vaesenc %xmm15, %xmm10, %xmm10 movbeq 40(%r14), %r13 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 movbeq 32(%r14), %r12 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 80(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 88(%rbp) vpxor %xmm5, %xmm6, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor %xmm1, %xmm6, %xmm6 movdqu -16(%rcx), %xmm15 vpslldq $8, %xmm6, %xmm5 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $13979173243358019584, %r11 pinsrq $1, %r11, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm8, %xmm7, %xmm7 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm5, %xmm4, %xmm4 movbeq 24(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 16(%r14), %r12 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 movq %r13, 96(%rbp) vaesenc %xmm15, %xmm12, %xmm12 movq %r12, 104(%rbp) vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm1 vaesenc %xmm1, %xmm9, %xmm9 movdqu 16(%rcx), %xmm15 vaesenc %xmm1, %xmm10, %xmm10 vpsrldq $8, %xmm6, %xmm6 vaesenc %xmm1, %xmm11, %xmm11 vpxor %xmm6, %xmm7, %xmm7 vaesenc %xmm1, %xmm12, %xmm12 vpxor %xmm0, %xmm4, %xmm4 movbeq 8(%r14), %r13 vaesenc %xmm1, %xmm13, %xmm13 movbeq 0(%r14), %r12 vaesenc %xmm1, %xmm14, %xmm14 movdqu 32(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 vaesenc %xmm1, %xmm9, %xmm9 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm1, %xmm13, %xmm13 movdqu 48(%rcx), %xmm15 vaesenc %xmm1, %xmm14, %xmm14 movdqu 64(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 vaesenc %xmm1, %xmm9, %xmm9 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm1, %xmm13, %xmm13 movdqu 80(%rcx), %xmm15 vaesenc %xmm1, %xmm14, %xmm14 movdqu 96(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 movdqu %xmm7, 16(%rbp) vpalignr $8, %xmm4, %xmm4, %xmm8 vaesenc %xmm15, %xmm10, %xmm10 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor 0(%rdi), %xmm1, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 vpxor 16(%rdi), %xmm1, %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vpxor 32(%rdi), %xmm1, %xmm5 vaesenc %xmm15, %xmm13, %xmm13 vpxor 48(%rdi), %xmm1, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor 64(%rdi), %xmm1, %xmm7 vpxor 80(%rdi), %xmm1, %xmm3 movdqu 128(%rbp), %xmm1 vaesenclast %xmm2, %xmm9, %xmm9 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vaesenclast %xmm0, %xmm10, %xmm10 vpaddd %xmm2, %xmm1, %xmm0 movq %r13, 112(%rbp) lea 96(%rdi), %rdi vaesenclast %xmm5, %xmm11, %xmm11 vpaddd %xmm2, %xmm0, %xmm5 movq %r12, 120(%rbp) lea 96(%rsi), %rsi movdqu -128(%rcx), %xmm15 vaesenclast %xmm6, %xmm12, %xmm12 vpaddd %xmm2, %xmm5, %xmm6 vaesenclast %xmm7, %xmm13, %xmm13 vpaddd %xmm2, %xmm6, %xmm7 vaesenclast %xmm3, %xmm14, %xmm14 vpaddd %xmm2, %xmm7, %xmm3 sub $6, %rdx add $96, %r14 cmp $0, %rdx jbe L126 movdqu %xmm9, -96(%rsi) vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm10, -80(%rsi) movdqu %xmm0, %xmm10 movdqu %xmm11, -64(%rsi) movdqu %xmm5, %xmm11 movdqu %xmm12, -48(%rsi) movdqu %xmm6, %xmm12 movdqu %xmm13, -32(%rsi) movdqu %xmm7, %xmm13 movdqu %xmm14, -16(%rsi) movdqu %xmm3, %xmm14 movdqu 32(%rbp), %xmm7 jmp L127 L126: vpxor 16(%rbp), %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 L127: .balign 16 L123: cmp $0, %rdx ja L122 movdqu 32(%rbp), %xmm7 movdqu %xmm1, 32(%rbp) pxor %xmm4, %xmm4 movdqu %xmm4, 16(%rbp) movdqu -32(%r9), %xmm3 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vpclmulqdq $16, %xmm3, %xmm7, %xmm5 movdqu 48(%rbp), %xmm0 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 movdqu -16(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 movdqu 16(%r9), %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vpxor %xmm5, %xmm6, %xmm6 vpxor %xmm1, %xmm6, %xmm6 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $3254779904, %rax pinsrd $3, %eax, %xmm3 vpxor %xmm8, %xmm7, %xmm7 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm0 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm0 movdqu %xmm9, -96(%rsi) vpshufb %xmm0, %xmm9, %xmm9 vpxor %xmm7, %xmm1, %xmm1 movdqu %xmm10, -80(%rsi) vpshufb %xmm0, %xmm10, %xmm10 movdqu %xmm11, -64(%rsi) vpshufb %xmm0, %xmm11, %xmm11 movdqu %xmm12, -48(%rsi) vpshufb %xmm0, %xmm12, %xmm12 movdqu %xmm13, -32(%rsi) vpshufb %xmm0, %xmm13, %xmm13 movdqu %xmm14, -16(%rsi) vpshufb %xmm0, %xmm14, %xmm14 pxor %xmm4, %xmm4 movdqu %xmm14, %xmm7 movdqu %xmm4, 16(%rbp) movdqu %xmm13, 48(%rbp) movdqu %xmm12, 64(%rbp) movdqu %xmm11, 80(%rbp) movdqu %xmm10, 96(%rbp) movdqu %xmm9, 112(%rbp) movdqu -32(%r9), %xmm3 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vpclmulqdq $16, %xmm3, %xmm7, %xmm5 movdqu 48(%rbp), %xmm0 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 movdqu -16(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 movdqu 16(%r9), %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vpxor %xmm5, %xmm6, %xmm6 vpxor %xmm1, %xmm6, %xmm6 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $3254779904, %rax pinsrd $3, %eax, %xmm3 vpxor %xmm8, %xmm7, %xmm7 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 sub $128, %rcx L117: movdqu 32(%rbp), %xmm11 mov %rcx, %r8 mov 312(%rsp), %rax mov 320(%rsp), %rdi mov 328(%rsp), %rdx mov %rdx, %r14 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm9 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm9 pshufb %xmm9, %xmm11 pxor %xmm10, %xmm10 mov $1, %rbx pinsrd $0, %ebx, %xmm10 mov %rax, %r11 mov %rdi, %r10 mov $0, %rbx jmp L129 .balign 16 L128: movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%r11), %xmm2 pxor %xmm0, %xmm2 movdqu %xmm2, 0(%r10) add $1, %rbx add $16, %r11 add $16, %r10 paddd %xmm10, %xmm11 .balign 16 L129: cmp %rdx, %rbx jne L128 mov %rdi, %r11 jmp L131 .balign 16 L130: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L131: cmp $6, %rdx jae L130 cmp $0, %rdx jbe L132 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L134 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L135 L134: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L136 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L138 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L140 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L141 L140: L141: jmp L139 L138: L139: jmp L137 L136: L137: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L135: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L133 L132: L133: add 304(%rsp), %r14 imul $16, %r14 mov 344(%rsp), %r13 cmp %r14, %r13 jbe L142 mov 336(%rsp), %rax mov %r13, %r10 and $15, %r10 movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%rax), %xmm4 pxor %xmm4, %xmm0 movdqu %xmm0, 0(%rax) cmp $8, %r10 jae L144 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L145 L144: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L145: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L143 L142: L143: mov %r15, %r11 pxor %xmm0, %xmm0 mov %r11, %rax imul $8, %rax pinsrq $1, %rax, %xmm0 mov %r13, %rax imul $8, %rax pinsrq $0, %rax, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu 0(%rbp), %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pshufb %xmm9, %xmm8 pxor %xmm0, %xmm8 mov 360(%rsp), %r15 movdqu %xmm8, 0(%r15) pop %rax pinsrq $1, %rax, %xmm6 pop %rax pinsrq $0, %rax, %xmm6 pop %rax pinsrq $1, %rax, %xmm7 pop %rax pinsrq $0, %rax, %xmm7 pop %rax pinsrq $1, %rax, %xmm8 pop %rax pinsrq $0, %rax, %xmm8 pop %rax pinsrq $1, %rax, %xmm9 pop %rax pinsrq $0, %rax, %xmm9 pop %rax pinsrq $1, %rax, %xmm10 pop %rax pinsrq $0, %rax, %xmm10 pop %rax pinsrq $1, %rax, %xmm11 pop %rax pinsrq $0, %rax, %xmm11 pop %rax pinsrq $1, %rax, %xmm12 pop %rax pinsrq $0, %rax, %xmm12 pop %rax pinsrq $1, %rax, %xmm13 pop %rax pinsrq $0, %rax, %xmm13 pop %rax pinsrq $1, %rax, %xmm14 pop %rax pinsrq $0, %rax, %xmm14 pop %rax pinsrq $1, %rax, %xmm15 pop %rax pinsrq $0, %rax, %xmm15 pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 ret .global gcm128_decrypt_opt gcm128_decrypt_opt: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx pextrq $0, %xmm15, %rax push %rax pextrq $1, %xmm15, %rax push %rax pextrq $0, %xmm14, %rax push %rax pextrq $1, %xmm14, %rax push %rax pextrq $0, %xmm13, %rax push %rax pextrq $1, %xmm13, %rax push %rax pextrq $0, %xmm12, %rax push %rax pextrq $1, %xmm12, %rax push %rax pextrq $0, %xmm11, %rax push %rax pextrq $1, %xmm11, %rax push %rax pextrq $0, %xmm10, %rax push %rax pextrq $1, %xmm10, %rax push %rax pextrq $0, %xmm9, %rax push %rax pextrq $1, %xmm9, %rax push %rax pextrq $0, %xmm8, %rax push %rax pextrq $1, %xmm8, %rax push %rax pextrq $0, %xmm7, %rax push %rax pextrq $1, %xmm7, %rax push %rax pextrq $0, %xmm6, %rax push %rax pextrq $1, %xmm6, %rax push %rax mov %rcx, %rdi mov %rdx, %rsi mov %r8, %rdx mov %r9, %rcx mov 264(%rsp), %r8 mov 272(%rsp), %r9 mov 352(%rsp), %rbp mov %rcx, %r13 lea 32(%r9), %r9 mov 280(%rsp), %rbx mov %rdx, %rcx imul $16, %rcx mov $579005069656919567, %r10 pinsrq $0, %r10, %xmm9 mov $283686952306183, %r10 pinsrq $1, %r10, %xmm9 pxor %xmm8, %xmm8 mov %rdi, %r11 jmp L147 .balign 16 L146: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L147: cmp $6, %rdx jae L146 cmp $0, %rdx jbe L148 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L150 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L151 L150: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L152 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L154 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L156 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L157 L156: L157: jmp L155 L154: L155: jmp L153 L152: L153: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L151: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L149 L148: L149: mov %rsi, %r15 cmp %rcx, %rsi jbe L158 movdqu 0(%rbx), %xmm0 mov %rsi, %r10 and $15, %r10 cmp $8, %r10 jae L160 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L161 L160: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L161: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L159 L158: L159: mov 288(%rsp), %rdi mov 296(%rsp), %rsi mov 304(%rsp), %rdx mov %r13, %rcx movdqu %xmm9, %xmm0 movdqu 0(%r8), %xmm1 movdqu %xmm1, 0(%rbp) pxor %xmm10, %xmm10 mov $1, %r11 pinsrq $0, %r11, %xmm10 vpaddd %xmm10, %xmm1, %xmm1 cmp $0, %rdx jne L162 vpshufb %xmm0, %xmm1, %xmm1 movdqu %xmm1, 32(%rbp) jmp L163 L162: movdqu %xmm8, 32(%rbp) add $128, %rcx pextrq $0, %xmm1, %rbx and $255, %rbx vpshufb %xmm0, %xmm1, %xmm1 lea 96(%rdi), %r14 movdqu 32(%rbp), %xmm8 movdqu 80(%rdi), %xmm7 movdqu 64(%rdi), %xmm4 movdqu 48(%rdi), %xmm5 movdqu 32(%rdi), %xmm6 vpshufb %xmm0, %xmm7, %xmm7 movdqu 16(%rdi), %xmm2 vpshufb %xmm0, %xmm4, %xmm4 movdqu 0(%rdi), %xmm3 vpshufb %xmm0, %xmm5, %xmm5 movdqu %xmm4, 48(%rbp) vpshufb %xmm0, %xmm6, %xmm6 movdqu %xmm5, 64(%rbp) vpshufb %xmm0, %xmm2, %xmm2 movdqu %xmm6, 80(%rbp) vpshufb %xmm0, %xmm3, %xmm3 movdqu %xmm2, 96(%rbp) movdqu %xmm3, 112(%rbp) pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vpxor %xmm4, %xmm4, %xmm4 movdqu -128(%rcx), %xmm15 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpaddd %xmm2, %xmm11, %xmm12 vpaddd %xmm2, %xmm12, %xmm13 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm4, 16(%rbp) cmp $6, %rdx jne L164 sub $96, %r14 jmp L165 L164: L165: jmp L167 .balign 16 L166: add $6, %rbx cmp $256, %rbx jb L168 mov $579005069656919567, %r11 pinsrq $0, %r11, %xmm0 mov $283686952306183, %r11 pinsrq $1, %r11, %xmm0 vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 movdqu -32(%r9), %xmm3 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm15, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm15, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpshufb %xmm0, %xmm14, %xmm14 vpshufb %xmm0, %xmm1, %xmm1 sub $256, %rbx jmp L169 L168: movdqu -32(%r9), %xmm3 vpaddd %xmm14, %xmm2, %xmm1 vpxor %xmm15, %xmm10, %xmm10 vpxor %xmm15, %xmm11, %xmm11 L169: movdqu %xmm1, 128(%rbp) vpclmulqdq $16, %xmm3, %xmm7, %xmm5 vpxor %xmm15, %xmm12, %xmm12 movdqu -112(%rcx), %xmm2 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vaesenc %xmm2, %xmm9, %xmm9 movdqu 48(%rbp), %xmm0 vpxor %xmm15, %xmm13, %xmm13 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vaesenc %xmm2, %xmm10, %xmm10 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 vaesenc %xmm2, %xmm11, %xmm11 movdqu -16(%r9), %xmm3 vaesenc %xmm2, %xmm12, %xmm12 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vaesenc %xmm2, %xmm13, %xmm13 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vaesenc %xmm2, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 vaesenc %xmm15, %xmm10, %xmm10 movbeq 88(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 80(%r14), %r12 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 32(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 40(%rbp) movdqu 16(%r9), %xmm5 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vaesenc %xmm15, %xmm11, %xmm11 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vaesenc %xmm15, %xmm10, %xmm10 movbeq 72(%r14), %r13 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 movbeq 64(%r14), %r12 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 48(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 56(%rbp) vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vaesenc %xmm15, %xmm10, %xmm10 movbeq 56(%r14), %r13 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vaesenc %xmm15, %xmm11, %xmm11 movbeq 48(%r14), %r12 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 64(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 72(%rbp) vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vaesenc %xmm15, %xmm10, %xmm10 movbeq 40(%r14), %r13 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 movbeq 32(%r14), %r12 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 80(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 88(%rbp) vpxor %xmm5, %xmm6, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor %xmm1, %xmm6, %xmm6 movdqu -16(%rcx), %xmm15 vpslldq $8, %xmm6, %xmm5 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $13979173243358019584, %r11 pinsrq $1, %r11, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm8, %xmm7, %xmm7 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm5, %xmm4, %xmm4 movbeq 24(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 16(%r14), %r12 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 movq %r13, 96(%rbp) vaesenc %xmm15, %xmm12, %xmm12 movq %r12, 104(%rbp) vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm1 vaesenc %xmm1, %xmm9, %xmm9 movdqu 16(%rcx), %xmm15 vaesenc %xmm1, %xmm10, %xmm10 vpsrldq $8, %xmm6, %xmm6 vaesenc %xmm1, %xmm11, %xmm11 vpxor %xmm6, %xmm7, %xmm7 vaesenc %xmm1, %xmm12, %xmm12 vpxor %xmm0, %xmm4, %xmm4 movbeq 8(%r14), %r13 vaesenc %xmm1, %xmm13, %xmm13 movbeq 0(%r14), %r12 vaesenc %xmm1, %xmm14, %xmm14 movdqu 32(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 movdqu %xmm7, 16(%rbp) vpalignr $8, %xmm4, %xmm4, %xmm8 vaesenc %xmm15, %xmm10, %xmm10 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor 0(%rdi), %xmm1, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 vpxor 16(%rdi), %xmm1, %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vpxor 32(%rdi), %xmm1, %xmm5 vaesenc %xmm15, %xmm13, %xmm13 vpxor 48(%rdi), %xmm1, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor 64(%rdi), %xmm1, %xmm7 vpxor 80(%rdi), %xmm1, %xmm3 movdqu 128(%rbp), %xmm1 vaesenclast %xmm2, %xmm9, %xmm9 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vaesenclast %xmm0, %xmm10, %xmm10 vpaddd %xmm2, %xmm1, %xmm0 movq %r13, 112(%rbp) lea 96(%rdi), %rdi vaesenclast %xmm5, %xmm11, %xmm11 vpaddd %xmm2, %xmm0, %xmm5 movq %r12, 120(%rbp) lea 96(%rsi), %rsi movdqu -128(%rcx), %xmm15 vaesenclast %xmm6, %xmm12, %xmm12 vpaddd %xmm2, %xmm5, %xmm6 vaesenclast %xmm7, %xmm13, %xmm13 vpaddd %xmm2, %xmm6, %xmm7 vaesenclast %xmm3, %xmm14, %xmm14 vpaddd %xmm2, %xmm7, %xmm3 sub $6, %rdx cmp $6, %rdx jbe L170 add $96, %r14 jmp L171 L170: L171: cmp $0, %rdx jbe L172 movdqu %xmm9, -96(%rsi) vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm10, -80(%rsi) movdqu %xmm0, %xmm10 movdqu %xmm11, -64(%rsi) movdqu %xmm5, %xmm11 movdqu %xmm12, -48(%rsi) movdqu %xmm6, %xmm12 movdqu %xmm13, -32(%rsi) movdqu %xmm7, %xmm13 movdqu %xmm14, -16(%rsi) movdqu %xmm3, %xmm14 movdqu 32(%rbp), %xmm7 jmp L173 L172: vpxor 16(%rbp), %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 L173: .balign 16 L167: cmp $0, %rdx ja L166 movdqu %xmm1, 32(%rbp) movdqu %xmm9, -96(%rsi) movdqu %xmm10, -80(%rsi) movdqu %xmm11, -64(%rsi) movdqu %xmm12, -48(%rsi) movdqu %xmm13, -32(%rsi) movdqu %xmm14, -16(%rsi) sub $128, %rcx L163: movdqu 32(%rbp), %xmm11 mov %rcx, %r8 mov 312(%rsp), %rax mov 320(%rsp), %rdi mov 328(%rsp), %rdx mov %rdx, %r14 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm9 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm9 pshufb %xmm9, %xmm11 mov %rdi, %rbx mov %rdx, %r12 mov %rax, %rdi mov %rdi, %r11 jmp L175 .balign 16 L174: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L175: cmp $6, %rdx jae L174 cmp $0, %rdx jbe L176 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L178 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L179 L178: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L180 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L182 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L184 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L185 L184: L185: jmp L183 L182: L183: jmp L181 L180: L181: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L179: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L177 L176: L177: mov %rbx, %rdi mov %r12, %rdx pxor %xmm10, %xmm10 mov $1, %rbx pinsrd $0, %ebx, %xmm10 mov %rax, %r11 mov %rdi, %r10 mov $0, %rbx jmp L187 .balign 16 L186: movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%r11), %xmm2 pxor %xmm0, %xmm2 movdqu %xmm2, 0(%r10) add $1, %rbx add $16, %r11 add $16, %r10 paddd %xmm10, %xmm11 .balign 16 L187: cmp %rdx, %rbx jne L186 add 304(%rsp), %r14 imul $16, %r14 mov 344(%rsp), %r13 cmp %r14, %r13 jbe L188 mov 336(%rsp), %rax mov %r13, %r10 and $15, %r10 movdqu 0(%rax), %xmm0 movdqu %xmm0, %xmm10 cmp $8, %r10 jae L190 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L191 L190: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L191: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pxor %xmm0, %xmm10 movdqu %xmm10, 0(%rax) jmp L189 L188: L189: mov %r15, %r11 pxor %xmm0, %xmm0 mov %r11, %rax imul $8, %rax pinsrq $1, %rax, %xmm0 mov %r13, %rax imul $8, %rax pinsrq $0, %rax, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu 0(%rbp), %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pshufb %xmm9, %xmm8 pxor %xmm0, %xmm8 mov 360(%rsp), %r15 movdqu 0(%r15), %xmm0 pcmpeqd %xmm8, %xmm0 pextrq $0, %xmm0, %rdx sub $18446744073709551615, %rdx mov $0, %rax adc $0, %rax pextrq $1, %xmm0, %rdx sub $18446744073709551615, %rdx mov $0, %rdx adc $0, %rdx add %rdx, %rax mov %rax, %rcx pop %rax pinsrq $1, %rax, %xmm6 pop %rax pinsrq $0, %rax, %xmm6 pop %rax pinsrq $1, %rax, %xmm7 pop %rax pinsrq $0, %rax, %xmm7 pop %rax pinsrq $1, %rax, %xmm8 pop %rax pinsrq $0, %rax, %xmm8 pop %rax pinsrq $1, %rax, %xmm9 pop %rax pinsrq $0, %rax, %xmm9 pop %rax pinsrq $1, %rax, %xmm10 pop %rax pinsrq $0, %rax, %xmm10 pop %rax pinsrq $1, %rax, %xmm11 pop %rax pinsrq $0, %rax, %xmm11 pop %rax pinsrq $1, %rax, %xmm12 pop %rax pinsrq $0, %rax, %xmm12 pop %rax pinsrq $1, %rax, %xmm13 pop %rax pinsrq $0, %rax, %xmm13 pop %rax pinsrq $1, %rax, %xmm14 pop %rax pinsrq $0, %rax, %xmm14 pop %rax pinsrq $1, %rax, %xmm15 pop %rax pinsrq $0, %rax, %xmm15 pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 mov %rcx, %rax ret .global gcm256_decrypt_opt gcm256_decrypt_opt: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx pextrq $0, %xmm15, %rax push %rax pextrq $1, %xmm15, %rax push %rax pextrq $0, %xmm14, %rax push %rax pextrq $1, %xmm14, %rax push %rax pextrq $0, %xmm13, %rax push %rax pextrq $1, %xmm13, %rax push %rax pextrq $0, %xmm12, %rax push %rax pextrq $1, %xmm12, %rax push %rax pextrq $0, %xmm11, %rax push %rax pextrq $1, %xmm11, %rax push %rax pextrq $0, %xmm10, %rax push %rax pextrq $1, %xmm10, %rax push %rax pextrq $0, %xmm9, %rax push %rax pextrq $1, %xmm9, %rax push %rax pextrq $0, %xmm8, %rax push %rax pextrq $1, %xmm8, %rax push %rax pextrq $0, %xmm7, %rax push %rax pextrq $1, %xmm7, %rax push %rax pextrq $0, %xmm6, %rax push %rax pextrq $1, %xmm6, %rax push %rax mov %rcx, %rdi mov %rdx, %rsi mov %r8, %rdx mov %r9, %rcx mov 264(%rsp), %r8 mov 272(%rsp), %r9 mov 352(%rsp), %rbp mov %rcx, %r13 lea 32(%r9), %r9 mov 280(%rsp), %rbx mov %rdx, %rcx imul $16, %rcx mov $579005069656919567, %r10 pinsrq $0, %r10, %xmm9 mov $283686952306183, %r10 pinsrq $1, %r10, %xmm9 pxor %xmm8, %xmm8 mov %rdi, %r11 jmp L193 .balign 16 L192: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L193: cmp $6, %rdx jae L192 cmp $0, %rdx jbe L194 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L196 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L197 L196: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L198 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L200 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L202 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L203 L202: L203: jmp L201 L200: L201: jmp L199 L198: L199: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L197: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L195 L194: L195: mov %rsi, %r15 cmp %rcx, %rsi jbe L204 movdqu 0(%rbx), %xmm0 mov %rsi, %r10 and $15, %r10 cmp $8, %r10 jae L206 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L207 L206: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L207: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L205 L204: L205: mov 288(%rsp), %rdi mov 296(%rsp), %rsi mov 304(%rsp), %rdx mov %r13, %rcx movdqu %xmm9, %xmm0 movdqu 0(%r8), %xmm1 movdqu %xmm1, 0(%rbp) pxor %xmm10, %xmm10 mov $1, %r11 pinsrq $0, %r11, %xmm10 vpaddd %xmm10, %xmm1, %xmm1 cmp $0, %rdx jne L208 vpshufb %xmm0, %xmm1, %xmm1 movdqu %xmm1, 32(%rbp) jmp L209 L208: movdqu %xmm8, 32(%rbp) add $128, %rcx pextrq $0, %xmm1, %rbx and $255, %rbx vpshufb %xmm0, %xmm1, %xmm1 lea 96(%rdi), %r14 movdqu 32(%rbp), %xmm8 movdqu 80(%rdi), %xmm7 movdqu 64(%rdi), %xmm4 movdqu 48(%rdi), %xmm5 movdqu 32(%rdi), %xmm6 vpshufb %xmm0, %xmm7, %xmm7 movdqu 16(%rdi), %xmm2 vpshufb %xmm0, %xmm4, %xmm4 movdqu 0(%rdi), %xmm3 vpshufb %xmm0, %xmm5, %xmm5 movdqu %xmm4, 48(%rbp) vpshufb %xmm0, %xmm6, %xmm6 movdqu %xmm5, 64(%rbp) vpshufb %xmm0, %xmm2, %xmm2 movdqu %xmm6, 80(%rbp) vpshufb %xmm0, %xmm3, %xmm3 movdqu %xmm2, 96(%rbp) movdqu %xmm3, 112(%rbp) pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vpxor %xmm4, %xmm4, %xmm4 movdqu -128(%rcx), %xmm15 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpaddd %xmm2, %xmm11, %xmm12 vpaddd %xmm2, %xmm12, %xmm13 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm4, 16(%rbp) cmp $6, %rdx jne L210 sub $96, %r14 jmp L211 L210: L211: jmp L213 .balign 16 L212: add $6, %rbx cmp $256, %rbx jb L214 mov $579005069656919567, %r11 pinsrq $0, %r11, %xmm0 mov $283686952306183, %r11 pinsrq $1, %r11, %xmm0 vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 movdqu -32(%r9), %xmm3 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm15, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm15, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpshufb %xmm0, %xmm14, %xmm14 vpshufb %xmm0, %xmm1, %xmm1 sub $256, %rbx jmp L215 L214: movdqu -32(%r9), %xmm3 vpaddd %xmm14, %xmm2, %xmm1 vpxor %xmm15, %xmm10, %xmm10 vpxor %xmm15, %xmm11, %xmm11 L215: movdqu %xmm1, 128(%rbp) vpclmulqdq $16, %xmm3, %xmm7, %xmm5 vpxor %xmm15, %xmm12, %xmm12 movdqu -112(%rcx), %xmm2 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vaesenc %xmm2, %xmm9, %xmm9 movdqu 48(%rbp), %xmm0 vpxor %xmm15, %xmm13, %xmm13 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vaesenc %xmm2, %xmm10, %xmm10 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 vaesenc %xmm2, %xmm11, %xmm11 movdqu -16(%r9), %xmm3 vaesenc %xmm2, %xmm12, %xmm12 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vaesenc %xmm2, %xmm13, %xmm13 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vaesenc %xmm2, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 vaesenc %xmm15, %xmm10, %xmm10 movbeq 88(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 80(%r14), %r12 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 32(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 40(%rbp) movdqu 16(%r9), %xmm5 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vaesenc %xmm15, %xmm11, %xmm11 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vaesenc %xmm15, %xmm10, %xmm10 movbeq 72(%r14), %r13 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 movbeq 64(%r14), %r12 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 48(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 56(%rbp) vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vaesenc %xmm15, %xmm10, %xmm10 movbeq 56(%r14), %r13 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vaesenc %xmm15, %xmm11, %xmm11 movbeq 48(%r14), %r12 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 64(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 72(%rbp) vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vaesenc %xmm15, %xmm10, %xmm10 movbeq 40(%r14), %r13 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 movbeq 32(%r14), %r12 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 80(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 88(%rbp) vpxor %xmm5, %xmm6, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor %xmm1, %xmm6, %xmm6 movdqu -16(%rcx), %xmm15 vpslldq $8, %xmm6, %xmm5 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $13979173243358019584, %r11 pinsrq $1, %r11, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm8, %xmm7, %xmm7 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm5, %xmm4, %xmm4 movbeq 24(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 16(%r14), %r12 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 movq %r13, 96(%rbp) vaesenc %xmm15, %xmm12, %xmm12 movq %r12, 104(%rbp) vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm1 vaesenc %xmm1, %xmm9, %xmm9 movdqu 16(%rcx), %xmm15 vaesenc %xmm1, %xmm10, %xmm10 vpsrldq $8, %xmm6, %xmm6 vaesenc %xmm1, %xmm11, %xmm11 vpxor %xmm6, %xmm7, %xmm7 vaesenc %xmm1, %xmm12, %xmm12 vpxor %xmm0, %xmm4, %xmm4 movbeq 8(%r14), %r13 vaesenc %xmm1, %xmm13, %xmm13 movbeq 0(%r14), %r12 vaesenc %xmm1, %xmm14, %xmm14 movdqu 32(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 vaesenc %xmm1, %xmm9, %xmm9 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm1, %xmm13, %xmm13 movdqu 48(%rcx), %xmm15 vaesenc %xmm1, %xmm14, %xmm14 movdqu 64(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 vaesenc %xmm1, %xmm9, %xmm9 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm1, %xmm13, %xmm13 movdqu 80(%rcx), %xmm15 vaesenc %xmm1, %xmm14, %xmm14 movdqu 96(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 movdqu %xmm7, 16(%rbp) vpalignr $8, %xmm4, %xmm4, %xmm8 vaesenc %xmm15, %xmm10, %xmm10 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor 0(%rdi), %xmm1, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 vpxor 16(%rdi), %xmm1, %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vpxor 32(%rdi), %xmm1, %xmm5 vaesenc %xmm15, %xmm13, %xmm13 vpxor 48(%rdi), %xmm1, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor 64(%rdi), %xmm1, %xmm7 vpxor 80(%rdi), %xmm1, %xmm3 movdqu 128(%rbp), %xmm1 vaesenclast %xmm2, %xmm9, %xmm9 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vaesenclast %xmm0, %xmm10, %xmm10 vpaddd %xmm2, %xmm1, %xmm0 movq %r13, 112(%rbp) lea 96(%rdi), %rdi vaesenclast %xmm5, %xmm11, %xmm11 vpaddd %xmm2, %xmm0, %xmm5 movq %r12, 120(%rbp) lea 96(%rsi), %rsi movdqu -128(%rcx), %xmm15 vaesenclast %xmm6, %xmm12, %xmm12 vpaddd %xmm2, %xmm5, %xmm6 vaesenclast %xmm7, %xmm13, %xmm13 vpaddd %xmm2, %xmm6, %xmm7 vaesenclast %xmm3, %xmm14, %xmm14 vpaddd %xmm2, %xmm7, %xmm3 sub $6, %rdx cmp $6, %rdx jbe L216 add $96, %r14 jmp L217 L216: L217: cmp $0, %rdx jbe L218 movdqu %xmm9, -96(%rsi) vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm10, -80(%rsi) movdqu %xmm0, %xmm10 movdqu %xmm11, -64(%rsi) movdqu %xmm5, %xmm11 movdqu %xmm12, -48(%rsi) movdqu %xmm6, %xmm12 movdqu %xmm13, -32(%rsi) movdqu %xmm7, %xmm13 movdqu %xmm14, -16(%rsi) movdqu %xmm3, %xmm14 movdqu 32(%rbp), %xmm7 jmp L219 L218: vpxor 16(%rbp), %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 L219: .balign 16 L213: cmp $0, %rdx ja L212 movdqu %xmm1, 32(%rbp) movdqu %xmm9, -96(%rsi) movdqu %xmm10, -80(%rsi) movdqu %xmm11, -64(%rsi) movdqu %xmm12, -48(%rsi) movdqu %xmm13, -32(%rsi) movdqu %xmm14, -16(%rsi) sub $128, %rcx L209: movdqu 32(%rbp), %xmm11 mov %rcx, %r8 mov 312(%rsp), %rax mov 320(%rsp), %rdi mov 328(%rsp), %rdx mov %rdx, %r14 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm9 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm9 pshufb %xmm9, %xmm11 mov %rdi, %rbx mov %rdx, %r12 mov %rax, %rdi mov %rdi, %r11 jmp L221 .balign 16 L220: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L221: cmp $6, %rdx jae L220 cmp $0, %rdx jbe L222 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L224 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L225 L224: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L226 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L228 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L230 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L231 L230: L231: jmp L229 L228: L229: jmp L227 L226: L227: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L225: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L223 L222: L223: mov %rbx, %rdi mov %r12, %rdx pxor %xmm10, %xmm10 mov $1, %rbx pinsrd $0, %ebx, %xmm10 mov %rax, %r11 mov %rdi, %r10 mov $0, %rbx jmp L233 .balign 16 L232: movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%r11), %xmm2 pxor %xmm0, %xmm2 movdqu %xmm2, 0(%r10) add $1, %rbx add $16, %r11 add $16, %r10 paddd %xmm10, %xmm11 .balign 16 L233: cmp %rdx, %rbx jne L232 add 304(%rsp), %r14 imul $16, %r14 mov 344(%rsp), %r13 cmp %r14, %r13 jbe L234 mov 336(%rsp), %rax mov %r13, %r10 and $15, %r10 movdqu 0(%rax), %xmm0 movdqu %xmm0, %xmm10 cmp $8, %r10 jae L236 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L237 L236: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L237: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pxor %xmm0, %xmm10 movdqu %xmm10, 0(%rax) jmp L235 L234: L235: mov %r15, %r11 pxor %xmm0, %xmm0 mov %r11, %rax imul $8, %rax pinsrq $1, %rax, %xmm0 mov %r13, %rax imul $8, %rax pinsrq $0, %rax, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu 0(%rbp), %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pshufb %xmm9, %xmm8 pxor %xmm0, %xmm8 mov 360(%rsp), %r15 movdqu 0(%r15), %xmm0 pcmpeqd %xmm8, %xmm0 pextrq $0, %xmm0, %rdx sub $18446744073709551615, %rdx mov $0, %rax adc $0, %rax pextrq $1, %xmm0, %rdx sub $18446744073709551615, %rdx mov $0, %rdx adc $0, %rdx add %rdx, %rax mov %rax, %rcx pop %rax pinsrq $1, %rax, %xmm6 pop %rax pinsrq $0, %rax, %xmm6 pop %rax pinsrq $1, %rax, %xmm7 pop %rax pinsrq $0, %rax, %xmm7 pop %rax pinsrq $1, %rax, %xmm8 pop %rax pinsrq $0, %rax, %xmm8 pop %rax pinsrq $1, %rax, %xmm9 pop %rax pinsrq $0, %rax, %xmm9 pop %rax pinsrq $1, %rax, %xmm10 pop %rax pinsrq $0, %rax, %xmm10 pop %rax pinsrq $1, %rax, %xmm11 pop %rax pinsrq $0, %rax, %xmm11 pop %rax pinsrq $1, %rax, %xmm12 pop %rax pinsrq $0, %rax, %xmm12 pop %rax pinsrq $1, %rax, %xmm13 pop %rax pinsrq $0, %rax, %xmm13 pop %rax pinsrq $1, %rax, %xmm14 pop %rax pinsrq $0, %rax, %xmm14 pop %rax pinsrq $1, %rax, %xmm15 pop %rax pinsrq $0, %rax, %xmm15 pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 mov %rcx, %rax ret
verdict-x509/verdict
18,944
deps/libcrux/sys/hacl/c/vale/src/curve25519-x86_64-linux.S
.text .global add_scalar_e add_scalar_e: push %rdi push %rsi ;# Clear registers to propagate the carry bit xor %r8d, %r8d xor %r9d, %r9d xor %r10d, %r10d xor %r11d, %r11d xor %eax, %eax ;# Begin addition chain addq 0(%rsi), %rdx movq %rdx, 0(%rdi) adcxq 8(%rsi), %r8 movq %r8, 8(%rdi) adcxq 16(%rsi), %r9 movq %r9, 16(%rdi) adcxq 24(%rsi), %r10 movq %r10, 24(%rdi) ;# Return the carry bit in a register adcx %r11, %rax pop %rsi pop %rdi ret .global fadd_e fadd_e: ;# Compute the raw addition of f1 + f2 movq 0(%rdx), %r8 addq 0(%rsi), %r8 movq 8(%rdx), %r9 adcxq 8(%rsi), %r9 movq 16(%rdx), %r10 adcxq 16(%rsi), %r10 movq 24(%rdx), %r11 adcxq 24(%rsi), %r11 ;# Wrap the result back into the field ;# Step 1: Compute carry*38 mov $0, %rax mov $38, %rdx cmovc %rdx, %rax ;# Step 2: Add carry*38 to the original sum xor %ecx, %ecx add %rax, %r8 adcx %rcx, %r9 movq %r9, 8(%rdi) adcx %rcx, %r10 movq %r10, 16(%rdi) adcx %rcx, %r11 movq %r11, 24(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 0(%rdi) ret .global fsub_e fsub_e: ;# Compute the raw substraction of f1-f2 movq 0(%rsi), %r8 subq 0(%rdx), %r8 movq 8(%rsi), %r9 sbbq 8(%rdx), %r9 movq 16(%rsi), %r10 sbbq 16(%rdx), %r10 movq 24(%rsi), %r11 sbbq 24(%rdx), %r11 ;# Wrap the result back into the field ;# Step 1: Compute carry*38 mov $0, %rax mov $38, %rcx cmovc %rcx, %rax ;# Step 2: Substract carry*38 from the original difference sub %rax, %r8 sbb $0, %r9 sbb $0, %r10 sbb $0, %r11 ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rcx, %rax sub %rax, %r8 ;# Store the result movq %r8, 0(%rdi) movq %r9, 8(%rdi) movq %r10, 16(%rdi) movq %r11, 24(%rdi) ret .global fmul_scalar_e fmul_scalar_e: push %rdi push %r13 push %rbx ;# Compute the raw multiplication of f1*f2 mulxq 0(%rsi), %r8, %rcx ;# f1[0]*f2 mulxq 8(%rsi), %r9, %rbx ;# f1[1]*f2 add %rcx, %r9 mov $0, %rcx mulxq 16(%rsi), %r10, %r13 ;# f1[2]*f2 adcx %rbx, %r10 mulxq 24(%rsi), %r11, %rax ;# f1[3]*f2 adcx %r13, %r11 adcx %rcx, %rax ;# Wrap the result back into the field ;# Step 1: Compute carry*38 mov $38, %rdx imul %rdx, %rax ;# Step 2: Fold the carry back into dst add %rax, %r8 adcx %rcx, %r9 movq %r9, 8(%rdi) adcx %rcx, %r10 movq %r10, 16(%rdi) adcx %rcx, %r11 movq %r11, 24(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 0(%rdi) pop %rbx pop %r13 pop %rdi ret .global fmul_e fmul_e: push %r13 push %r14 push %r15 push %rbx mov %rdx, %r15 ;# Compute the raw multiplication: tmp <- src1 * src2 ;# Compute src1[0] * src2 movq 0(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d movq %r8, 0(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 movq %r10, 8(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 mov $0, %rax adox %rdx, %rax ;# Compute src1[1] * src2 movq 8(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 8(%rdi), %r8 movq %r8, 8(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 16(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx mov $0, %r8 mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 mov $0, %rax adox %rdx, %rax adcx %r8, %rax ;# Compute src1[2] * src2 movq 16(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 16(%rdi), %r8 movq %r8, 16(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 24(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx mov $0, %r8 mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 mov $0, %rax adox %rdx, %rax adcx %r8, %rax ;# Compute src1[3] * src2 movq 24(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 24(%rdi), %r8 movq %r8, 24(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 32(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx movq %rbx, 40(%rdi) mov $0, %r8 mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 movq %r14, 48(%rdi) mov $0, %rax adox %rdx, %rax adcx %r8, %rax movq %rax, 56(%rdi) ;# Line up pointers mov %rdi, %rsi mov %r15, %rdi ;# Wrap the result back into the field ;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo mov $38, %rdx mulxq 32(%rsi), %r8, %r13 xor %ecx, %ecx adoxq 0(%rsi), %r8 mulxq 40(%rsi), %r9, %rbx adcx %r13, %r9 adoxq 8(%rsi), %r9 mulxq 48(%rsi), %r10, %r13 adcx %rbx, %r10 adoxq 16(%rsi), %r10 mulxq 56(%rsi), %r11, %rax adcx %r13, %r11 adoxq 24(%rsi), %r11 adcx %rcx, %rax adox %rcx, %rax imul %rdx, %rax ;# Step 2: Fold the carry back into dst add %rax, %r8 adcx %rcx, %r9 movq %r9, 8(%rdi) adcx %rcx, %r10 movq %r10, 16(%rdi) adcx %rcx, %r11 movq %r11, 24(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 0(%rdi) pop %rbx pop %r15 pop %r14 pop %r13 ret .global fmul2_e fmul2_e: push %r13 push %r14 push %r15 push %rbx mov %rdx, %r15 ;# Compute the raw multiplication tmp[0] <- f1[0] * f2[0] ;# Compute src1[0] * src2 movq 0(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d movq %r8, 0(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 movq %r10, 8(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 mov $0, %rax adox %rdx, %rax ;# Compute src1[1] * src2 movq 8(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 8(%rdi), %r8 movq %r8, 8(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 16(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx mov $0, %r8 mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 mov $0, %rax adox %rdx, %rax adcx %r8, %rax ;# Compute src1[2] * src2 movq 16(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 16(%rdi), %r8 movq %r8, 16(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 24(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx mov $0, %r8 mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 mov $0, %rax adox %rdx, %rax adcx %r8, %rax ;# Compute src1[3] * src2 movq 24(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 24(%rdi), %r8 movq %r8, 24(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 32(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx movq %rbx, 40(%rdi) mov $0, %r8 mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 movq %r14, 48(%rdi) mov $0, %rax adox %rdx, %rax adcx %r8, %rax movq %rax, 56(%rdi) ;# Compute the raw multiplication tmp[1] <- f1[1] * f2[1] ;# Compute src1[0] * src2 movq 32(%rsi), %rdx mulxq 32(%rcx), %r8, %r9 xor %r10d, %r10d movq %r8, 64(%rdi) mulxq 40(%rcx), %r10, %r11 adox %r9, %r10 movq %r10, 72(%rdi) mulxq 48(%rcx), %rbx, %r13 adox %r11, %rbx mulxq 56(%rcx), %r14, %rdx adox %r13, %r14 mov $0, %rax adox %rdx, %rax ;# Compute src1[1] * src2 movq 40(%rsi), %rdx mulxq 32(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 72(%rdi), %r8 movq %r8, 72(%rdi) mulxq 40(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 80(%rdi) mulxq 48(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx mov $0, %r8 mulxq 56(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 mov $0, %rax adox %rdx, %rax adcx %r8, %rax ;# Compute src1[2] * src2 movq 48(%rsi), %rdx mulxq 32(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 80(%rdi), %r8 movq %r8, 80(%rdi) mulxq 40(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 88(%rdi) mulxq 48(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx mov $0, %r8 mulxq 56(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 mov $0, %rax adox %rdx, %rax adcx %r8, %rax ;# Compute src1[3] * src2 movq 56(%rsi), %rdx mulxq 32(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 88(%rdi), %r8 movq %r8, 88(%rdi) mulxq 40(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 96(%rdi) mulxq 48(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx movq %rbx, 104(%rdi) mov $0, %r8 mulxq 56(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 movq %r14, 112(%rdi) mov $0, %rax adox %rdx, %rax adcx %r8, %rax movq %rax, 120(%rdi) ;# Line up pointers mov %rdi, %rsi mov %r15, %rdi ;# Wrap the results back into the field ;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo mov $38, %rdx mulxq 32(%rsi), %r8, %r13 xor %ecx, %ecx adoxq 0(%rsi), %r8 mulxq 40(%rsi), %r9, %rbx adcx %r13, %r9 adoxq 8(%rsi), %r9 mulxq 48(%rsi), %r10, %r13 adcx %rbx, %r10 adoxq 16(%rsi), %r10 mulxq 56(%rsi), %r11, %rax adcx %r13, %r11 adoxq 24(%rsi), %r11 adcx %rcx, %rax adox %rcx, %rax imul %rdx, %rax ;# Step 2: Fold the carry back into dst add %rax, %r8 adcx %rcx, %r9 movq %r9, 8(%rdi) adcx %rcx, %r10 movq %r10, 16(%rdi) adcx %rcx, %r11 movq %r11, 24(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 0(%rdi) ;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo mov $38, %rdx mulxq 96(%rsi), %r8, %r13 xor %ecx, %ecx adoxq 64(%rsi), %r8 mulxq 104(%rsi), %r9, %rbx adcx %r13, %r9 adoxq 72(%rsi), %r9 mulxq 112(%rsi), %r10, %r13 adcx %rbx, %r10 adoxq 80(%rsi), %r10 mulxq 120(%rsi), %r11, %rax adcx %r13, %r11 adoxq 88(%rsi), %r11 adcx %rcx, %rax adox %rcx, %rax imul %rdx, %rax ;# Step 2: Fold the carry back into dst add %rax, %r8 adcx %rcx, %r9 movq %r9, 40(%rdi) adcx %rcx, %r10 movq %r10, 48(%rdi) adcx %rcx, %r11 movq %r11, 56(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 32(%rdi) pop %rbx pop %r15 pop %r14 pop %r13 ret .global fsqr_e fsqr_e: push %r15 push %r13 push %r14 push %r12 push %rbx mov %rdx, %r12 ;# Compute the raw multiplication: tmp <- f * f ;# Step 1: Compute all partial products movq 0(%rsi), %rdx ;# f[0] mulxq 8(%rsi), %r8, %r14 xor %r15d, %r15d ;# f[1]*f[0] mulxq 16(%rsi), %r9, %r10 adcx %r14, %r9 ;# f[2]*f[0] mulxq 24(%rsi), %rax, %rcx adcx %rax, %r10 ;# f[3]*f[0] movq 24(%rsi), %rdx ;# f[3] mulxq 8(%rsi), %r11, %rbx adcx %rcx, %r11 ;# f[1]*f[3] mulxq 16(%rsi), %rax, %r13 adcx %rax, %rbx ;# f[2]*f[3] movq 8(%rsi), %rdx adcx %r15, %r13 ;# f1 mulxq 16(%rsi), %rax, %rcx mov $0, %r14 ;# f[2]*f[1] ;# Step 2: Compute two parallel carry chains xor %r15d, %r15d adox %rax, %r10 adcx %r8, %r8 adox %rcx, %r11 adcx %r9, %r9 adox %r15, %rbx adcx %r10, %r10 adox %r15, %r13 adcx %r11, %r11 adox %r15, %r14 adcx %rbx, %rbx adcx %r13, %r13 adcx %r14, %r14 ;# Step 3: Compute intermediate squares movq 0(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[0]^2 movq %rax, 0(%rdi) add %rcx, %r8 movq %r8, 8(%rdi) movq 8(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[1]^2 adcx %rax, %r9 movq %r9, 16(%rdi) adcx %rcx, %r10 movq %r10, 24(%rdi) movq 16(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[2]^2 adcx %rax, %r11 movq %r11, 32(%rdi) adcx %rcx, %rbx movq %rbx, 40(%rdi) movq 24(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[3]^2 adcx %rax, %r13 movq %r13, 48(%rdi) adcx %rcx, %r14 movq %r14, 56(%rdi) ;# Line up pointers mov %rdi, %rsi mov %r12, %rdi ;# Wrap the result back into the field ;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo mov $38, %rdx mulxq 32(%rsi), %r8, %r13 xor %ecx, %ecx adoxq 0(%rsi), %r8 mulxq 40(%rsi), %r9, %rbx adcx %r13, %r9 adoxq 8(%rsi), %r9 mulxq 48(%rsi), %r10, %r13 adcx %rbx, %r10 adoxq 16(%rsi), %r10 mulxq 56(%rsi), %r11, %rax adcx %r13, %r11 adoxq 24(%rsi), %r11 adcx %rcx, %rax adox %rcx, %rax imul %rdx, %rax ;# Step 2: Fold the carry back into dst add %rax, %r8 adcx %rcx, %r9 movq %r9, 8(%rdi) adcx %rcx, %r10 movq %r10, 16(%rdi) adcx %rcx, %r11 movq %r11, 24(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 0(%rdi) pop %rbx pop %r12 pop %r14 pop %r13 pop %r15 ret .global fsqr2_e fsqr2_e: push %r15 push %r13 push %r14 push %r12 push %rbx mov %rdx, %r12 ;# Step 1: Compute all partial products movq 0(%rsi), %rdx ;# f[0] mulxq 8(%rsi), %r8, %r14 xor %r15d, %r15d ;# f[1]*f[0] mulxq 16(%rsi), %r9, %r10 adcx %r14, %r9 ;# f[2]*f[0] mulxq 24(%rsi), %rax, %rcx adcx %rax, %r10 ;# f[3]*f[0] movq 24(%rsi), %rdx ;# f[3] mulxq 8(%rsi), %r11, %rbx adcx %rcx, %r11 ;# f[1]*f[3] mulxq 16(%rsi), %rax, %r13 adcx %rax, %rbx ;# f[2]*f[3] movq 8(%rsi), %rdx adcx %r15, %r13 ;# f1 mulxq 16(%rsi), %rax, %rcx mov $0, %r14 ;# f[2]*f[1] ;# Step 2: Compute two parallel carry chains xor %r15d, %r15d adox %rax, %r10 adcx %r8, %r8 adox %rcx, %r11 adcx %r9, %r9 adox %r15, %rbx adcx %r10, %r10 adox %r15, %r13 adcx %r11, %r11 adox %r15, %r14 adcx %rbx, %rbx adcx %r13, %r13 adcx %r14, %r14 ;# Step 3: Compute intermediate squares movq 0(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[0]^2 movq %rax, 0(%rdi) add %rcx, %r8 movq %r8, 8(%rdi) movq 8(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[1]^2 adcx %rax, %r9 movq %r9, 16(%rdi) adcx %rcx, %r10 movq %r10, 24(%rdi) movq 16(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[2]^2 adcx %rax, %r11 movq %r11, 32(%rdi) adcx %rcx, %rbx movq %rbx, 40(%rdi) movq 24(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[3]^2 adcx %rax, %r13 movq %r13, 48(%rdi) adcx %rcx, %r14 movq %r14, 56(%rdi) ;# Step 1: Compute all partial products movq 32(%rsi), %rdx ;# f[0] mulxq 40(%rsi), %r8, %r14 xor %r15d, %r15d ;# f[1]*f[0] mulxq 48(%rsi), %r9, %r10 adcx %r14, %r9 ;# f[2]*f[0] mulxq 56(%rsi), %rax, %rcx adcx %rax, %r10 ;# f[3]*f[0] movq 56(%rsi), %rdx ;# f[3] mulxq 40(%rsi), %r11, %rbx adcx %rcx, %r11 ;# f[1]*f[3] mulxq 48(%rsi), %rax, %r13 adcx %rax, %rbx ;# f[2]*f[3] movq 40(%rsi), %rdx adcx %r15, %r13 ;# f1 mulxq 48(%rsi), %rax, %rcx mov $0, %r14 ;# f[2]*f[1] ;# Step 2: Compute two parallel carry chains xor %r15d, %r15d adox %rax, %r10 adcx %r8, %r8 adox %rcx, %r11 adcx %r9, %r9 adox %r15, %rbx adcx %r10, %r10 adox %r15, %r13 adcx %r11, %r11 adox %r15, %r14 adcx %rbx, %rbx adcx %r13, %r13 adcx %r14, %r14 ;# Step 3: Compute intermediate squares movq 32(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[0]^2 movq %rax, 64(%rdi) add %rcx, %r8 movq %r8, 72(%rdi) movq 40(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[1]^2 adcx %rax, %r9 movq %r9, 80(%rdi) adcx %rcx, %r10 movq %r10, 88(%rdi) movq 48(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[2]^2 adcx %rax, %r11 movq %r11, 96(%rdi) adcx %rcx, %rbx movq %rbx, 104(%rdi) movq 56(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[3]^2 adcx %rax, %r13 movq %r13, 112(%rdi) adcx %rcx, %r14 movq %r14, 120(%rdi) ;# Line up pointers mov %rdi, %rsi mov %r12, %rdi ;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo mov $38, %rdx mulxq 32(%rsi), %r8, %r13 xor %ecx, %ecx adoxq 0(%rsi), %r8 mulxq 40(%rsi), %r9, %rbx adcx %r13, %r9 adoxq 8(%rsi), %r9 mulxq 48(%rsi), %r10, %r13 adcx %rbx, %r10 adoxq 16(%rsi), %r10 mulxq 56(%rsi), %r11, %rax adcx %r13, %r11 adoxq 24(%rsi), %r11 adcx %rcx, %rax adox %rcx, %rax imul %rdx, %rax ;# Step 2: Fold the carry back into dst add %rax, %r8 adcx %rcx, %r9 movq %r9, 8(%rdi) adcx %rcx, %r10 movq %r10, 16(%rdi) adcx %rcx, %r11 movq %r11, 24(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 0(%rdi) ;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo mov $38, %rdx mulxq 96(%rsi), %r8, %r13 xor %ecx, %ecx adoxq 64(%rsi), %r8 mulxq 104(%rsi), %r9, %rbx adcx %r13, %r9 adoxq 72(%rsi), %r9 mulxq 112(%rsi), %r10, %r13 adcx %rbx, %r10 adoxq 80(%rsi), %r10 mulxq 120(%rsi), %r11, %rax adcx %r13, %r11 adoxq 88(%rsi), %r11 adcx %rcx, %rax adox %rcx, %rax imul %rdx, %rax ;# Step 2: Fold the carry back into dst add %rax, %r8 adcx %rcx, %r9 movq %r9, 40(%rdi) adcx %rcx, %r10 movq %r10, 48(%rdi) adcx %rcx, %r11 movq %r11, 56(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 32(%rdi) pop %rbx pop %r12 pop %r14 pop %r13 pop %r15 ret .global cswap2_e cswap2_e: ;# Transfer bit into CF flag add $18446744073709551615, %rdi ;# cswap p1[0], p2[0] movq 0(%rsi), %r8 movq 0(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 0(%rsi) movq %r9, 0(%rdx) ;# cswap p1[1], p2[1] movq 8(%rsi), %r8 movq 8(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 8(%rsi) movq %r9, 8(%rdx) ;# cswap p1[2], p2[2] movq 16(%rsi), %r8 movq 16(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 16(%rsi) movq %r9, 16(%rdx) ;# cswap p1[3], p2[3] movq 24(%rsi), %r8 movq 24(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 24(%rsi) movq %r9, 24(%rdx) ;# cswap p1[4], p2[4] movq 32(%rsi), %r8 movq 32(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 32(%rsi) movq %r9, 32(%rdx) ;# cswap p1[5], p2[5] movq 40(%rsi), %r8 movq 40(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 40(%rsi) movq %r9, 40(%rdx) ;# cswap p1[6], p2[6] movq 48(%rsi), %r8 movq 48(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 48(%rsi) movq %r9, 48(%rdx) ;# cswap p1[7], p2[7] movq 56(%rsi), %r8 movq 56(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 56(%rsi) movq %r9, 56(%rdx) ret .section .note.GNU-stack,"",%progbits
verdict-x509/verdict
19,666
deps/libcrux/sys/hacl/c/vale/src/curve25519-x86_64-mingw.S
.text .global add_scalar_e add_scalar_e: push %rdi push %rsi mov %rcx, %rdi mov %rdx, %rsi mov %r8, %rdx ;# Clear registers to propagate the carry bit xor %r8d, %r8d xor %r9d, %r9d xor %r10d, %r10d xor %r11d, %r11d xor %eax, %eax ;# Begin addition chain addq 0(%rsi), %rdx movq %rdx, 0(%rdi) adcxq 8(%rsi), %r8 movq %r8, 8(%rdi) adcxq 16(%rsi), %r9 movq %r9, 16(%rdi) adcxq 24(%rsi), %r10 movq %r10, 24(%rdi) ;# Return the carry bit in a register adcx %r11, %rax pop %rsi pop %rdi ret .global fadd_e fadd_e: push %rdi push %rsi mov %rcx, %rdi mov %rdx, %rsi mov %r8, %rdx ;# Compute the raw addition of f1 + f2 movq 0(%rdx), %r8 addq 0(%rsi), %r8 movq 8(%rdx), %r9 adcxq 8(%rsi), %r9 movq 16(%rdx), %r10 adcxq 16(%rsi), %r10 movq 24(%rdx), %r11 adcxq 24(%rsi), %r11 ;# Wrap the result back into the field ;# Step 1: Compute carry*38 mov $0, %rax mov $38, %rdx cmovc %rdx, %rax ;# Step 2: Add carry*38 to the original sum xor %ecx, %ecx add %rax, %r8 adcx %rcx, %r9 movq %r9, 8(%rdi) adcx %rcx, %r10 movq %r10, 16(%rdi) adcx %rcx, %r11 movq %r11, 24(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 0(%rdi) pop %rsi pop %rdi ret .global fsub_e fsub_e: push %rdi push %rsi mov %rcx, %rdi mov %rdx, %rsi mov %r8, %rdx ;# Compute the raw substraction of f1-f2 movq 0(%rsi), %r8 subq 0(%rdx), %r8 movq 8(%rsi), %r9 sbbq 8(%rdx), %r9 movq 16(%rsi), %r10 sbbq 16(%rdx), %r10 movq 24(%rsi), %r11 sbbq 24(%rdx), %r11 ;# Wrap the result back into the field ;# Step 1: Compute carry*38 mov $0, %rax mov $38, %rcx cmovc %rcx, %rax ;# Step 2: Substract carry*38 from the original difference sub %rax, %r8 sbb $0, %r9 sbb $0, %r10 sbb $0, %r11 ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rcx, %rax sub %rax, %r8 ;# Store the result movq %r8, 0(%rdi) movq %r9, 8(%rdi) movq %r10, 16(%rdi) movq %r11, 24(%rdi) pop %rsi pop %rdi ret .global fmul_scalar_e fmul_scalar_e: push %rdi push %r13 push %rbx push %rsi mov %rcx, %rdi mov %rdx, %rsi mov %r8, %rdx ;# Compute the raw multiplication of f1*f2 mulxq 0(%rsi), %r8, %rcx ;# f1[0]*f2 mulxq 8(%rsi), %r9, %rbx ;# f1[1]*f2 add %rcx, %r9 mov $0, %rcx mulxq 16(%rsi), %r10, %r13 ;# f1[2]*f2 adcx %rbx, %r10 mulxq 24(%rsi), %r11, %rax ;# f1[3]*f2 adcx %r13, %r11 adcx %rcx, %rax ;# Wrap the result back into the field ;# Step 1: Compute carry*38 mov $38, %rdx imul %rdx, %rax ;# Step 2: Fold the carry back into dst add %rax, %r8 adcx %rcx, %r9 movq %r9, 8(%rdi) adcx %rcx, %r10 movq %r10, 16(%rdi) adcx %rcx, %r11 movq %r11, 24(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 0(%rdi) pop %rsi pop %rbx pop %r13 pop %rdi ret .global fmul_e fmul_e: push %r13 push %r14 push %r15 push %rbx push %rsi push %rdi mov %rcx, %rdi mov %rdx, %rsi mov %r8, %r15 mov %r9, %rcx ;# Compute the raw multiplication: tmp <- src1 * src2 ;# Compute src1[0] * src2 movq 0(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d movq %r8, 0(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 movq %r10, 8(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 mov $0, %rax adox %rdx, %rax ;# Compute src1[1] * src2 movq 8(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 8(%rdi), %r8 movq %r8, 8(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 16(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx mov $0, %r8 mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 mov $0, %rax adox %rdx, %rax adcx %r8, %rax ;# Compute src1[2] * src2 movq 16(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 16(%rdi), %r8 movq %r8, 16(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 24(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx mov $0, %r8 mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 mov $0, %rax adox %rdx, %rax adcx %r8, %rax ;# Compute src1[3] * src2 movq 24(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 24(%rdi), %r8 movq %r8, 24(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 32(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx movq %rbx, 40(%rdi) mov $0, %r8 mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 movq %r14, 48(%rdi) mov $0, %rax adox %rdx, %rax adcx %r8, %rax movq %rax, 56(%rdi) ;# Line up pointers mov %rdi, %rsi mov %r15, %rdi ;# Wrap the result back into the field ;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo mov $38, %rdx mulxq 32(%rsi), %r8, %r13 xor %ecx, %ecx adoxq 0(%rsi), %r8 mulxq 40(%rsi), %r9, %rbx adcx %r13, %r9 adoxq 8(%rsi), %r9 mulxq 48(%rsi), %r10, %r13 adcx %rbx, %r10 adoxq 16(%rsi), %r10 mulxq 56(%rsi), %r11, %rax adcx %r13, %r11 adoxq 24(%rsi), %r11 adcx %rcx, %rax adox %rcx, %rax imul %rdx, %rax ;# Step 2: Fold the carry back into dst add %rax, %r8 adcx %rcx, %r9 movq %r9, 8(%rdi) adcx %rcx, %r10 movq %r10, 16(%rdi) adcx %rcx, %r11 movq %r11, 24(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 0(%rdi) pop %rdi pop %rsi pop %rbx pop %r15 pop %r14 pop %r13 ret .global fmul2_e fmul2_e: push %r13 push %r14 push %r15 push %rbx push %rsi push %rdi mov %rcx, %rdi mov %rdx, %rsi mov %r8, %r15 mov %r9, %rcx ;# Compute the raw multiplication tmp[0] <- f1[0] * f2[0] ;# Compute src1[0] * src2 movq 0(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d movq %r8, 0(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 movq %r10, 8(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 mov $0, %rax adox %rdx, %rax ;# Compute src1[1] * src2 movq 8(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 8(%rdi), %r8 movq %r8, 8(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 16(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx mov $0, %r8 mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 mov $0, %rax adox %rdx, %rax adcx %r8, %rax ;# Compute src1[2] * src2 movq 16(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 16(%rdi), %r8 movq %r8, 16(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 24(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx mov $0, %r8 mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 mov $0, %rax adox %rdx, %rax adcx %r8, %rax ;# Compute src1[3] * src2 movq 24(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 24(%rdi), %r8 movq %r8, 24(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 32(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx movq %rbx, 40(%rdi) mov $0, %r8 mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 movq %r14, 48(%rdi) mov $0, %rax adox %rdx, %rax adcx %r8, %rax movq %rax, 56(%rdi) ;# Compute the raw multiplication tmp[1] <- f1[1] * f2[1] ;# Compute src1[0] * src2 movq 32(%rsi), %rdx mulxq 32(%rcx), %r8, %r9 xor %r10d, %r10d movq %r8, 64(%rdi) mulxq 40(%rcx), %r10, %r11 adox %r9, %r10 movq %r10, 72(%rdi) mulxq 48(%rcx), %rbx, %r13 adox %r11, %rbx mulxq 56(%rcx), %r14, %rdx adox %r13, %r14 mov $0, %rax adox %rdx, %rax ;# Compute src1[1] * src2 movq 40(%rsi), %rdx mulxq 32(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 72(%rdi), %r8 movq %r8, 72(%rdi) mulxq 40(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 80(%rdi) mulxq 48(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx mov $0, %r8 mulxq 56(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 mov $0, %rax adox %rdx, %rax adcx %r8, %rax ;# Compute src1[2] * src2 movq 48(%rsi), %rdx mulxq 32(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 80(%rdi), %r8 movq %r8, 80(%rdi) mulxq 40(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 88(%rdi) mulxq 48(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx mov $0, %r8 mulxq 56(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 mov $0, %rax adox %rdx, %rax adcx %r8, %rax ;# Compute src1[3] * src2 movq 56(%rsi), %rdx mulxq 32(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 88(%rdi), %r8 movq %r8, 88(%rdi) mulxq 40(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 96(%rdi) mulxq 48(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx movq %rbx, 104(%rdi) mov $0, %r8 mulxq 56(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 movq %r14, 112(%rdi) mov $0, %rax adox %rdx, %rax adcx %r8, %rax movq %rax, 120(%rdi) ;# Line up pointers mov %rdi, %rsi mov %r15, %rdi ;# Wrap the results back into the field ;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo mov $38, %rdx mulxq 32(%rsi), %r8, %r13 xor %ecx, %ecx adoxq 0(%rsi), %r8 mulxq 40(%rsi), %r9, %rbx adcx %r13, %r9 adoxq 8(%rsi), %r9 mulxq 48(%rsi), %r10, %r13 adcx %rbx, %r10 adoxq 16(%rsi), %r10 mulxq 56(%rsi), %r11, %rax adcx %r13, %r11 adoxq 24(%rsi), %r11 adcx %rcx, %rax adox %rcx, %rax imul %rdx, %rax ;# Step 2: Fold the carry back into dst add %rax, %r8 adcx %rcx, %r9 movq %r9, 8(%rdi) adcx %rcx, %r10 movq %r10, 16(%rdi) adcx %rcx, %r11 movq %r11, 24(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 0(%rdi) ;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo mov $38, %rdx mulxq 96(%rsi), %r8, %r13 xor %ecx, %ecx adoxq 64(%rsi), %r8 mulxq 104(%rsi), %r9, %rbx adcx %r13, %r9 adoxq 72(%rsi), %r9 mulxq 112(%rsi), %r10, %r13 adcx %rbx, %r10 adoxq 80(%rsi), %r10 mulxq 120(%rsi), %r11, %rax adcx %r13, %r11 adoxq 88(%rsi), %r11 adcx %rcx, %rax adox %rcx, %rax imul %rdx, %rax ;# Step 2: Fold the carry back into dst add %rax, %r8 adcx %rcx, %r9 movq %r9, 40(%rdi) adcx %rcx, %r10 movq %r10, 48(%rdi) adcx %rcx, %r11 movq %r11, 56(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 32(%rdi) pop %rdi pop %rsi pop %rbx pop %r15 pop %r14 pop %r13 ret .global fsqr_e fsqr_e: push %r15 push %r13 push %r14 push %r12 push %rbx push %rsi push %rdi mov %rcx, %rdi mov %rdx, %rsi mov %r8, %r12 ;# Compute the raw multiplication: tmp <- f * f ;# Step 1: Compute all partial products movq 0(%rsi), %rdx ;# f[0] mulxq 8(%rsi), %r8, %r14 xor %r15d, %r15d ;# f[1]*f[0] mulxq 16(%rsi), %r9, %r10 adcx %r14, %r9 ;# f[2]*f[0] mulxq 24(%rsi), %rax, %rcx adcx %rax, %r10 ;# f[3]*f[0] movq 24(%rsi), %rdx ;# f[3] mulxq 8(%rsi), %r11, %rbx adcx %rcx, %r11 ;# f[1]*f[3] mulxq 16(%rsi), %rax, %r13 adcx %rax, %rbx ;# f[2]*f[3] movq 8(%rsi), %rdx adcx %r15, %r13 ;# f1 mulxq 16(%rsi), %rax, %rcx mov $0, %r14 ;# f[2]*f[1] ;# Step 2: Compute two parallel carry chains xor %r15d, %r15d adox %rax, %r10 adcx %r8, %r8 adox %rcx, %r11 adcx %r9, %r9 adox %r15, %rbx adcx %r10, %r10 adox %r15, %r13 adcx %r11, %r11 adox %r15, %r14 adcx %rbx, %rbx adcx %r13, %r13 adcx %r14, %r14 ;# Step 3: Compute intermediate squares movq 0(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[0]^2 movq %rax, 0(%rdi) add %rcx, %r8 movq %r8, 8(%rdi) movq 8(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[1]^2 adcx %rax, %r9 movq %r9, 16(%rdi) adcx %rcx, %r10 movq %r10, 24(%rdi) movq 16(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[2]^2 adcx %rax, %r11 movq %r11, 32(%rdi) adcx %rcx, %rbx movq %rbx, 40(%rdi) movq 24(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[3]^2 adcx %rax, %r13 movq %r13, 48(%rdi) adcx %rcx, %r14 movq %r14, 56(%rdi) ;# Line up pointers mov %rdi, %rsi mov %r12, %rdi ;# Wrap the result back into the field ;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo mov $38, %rdx mulxq 32(%rsi), %r8, %r13 xor %ecx, %ecx adoxq 0(%rsi), %r8 mulxq 40(%rsi), %r9, %rbx adcx %r13, %r9 adoxq 8(%rsi), %r9 mulxq 48(%rsi), %r10, %r13 adcx %rbx, %r10 adoxq 16(%rsi), %r10 mulxq 56(%rsi), %r11, %rax adcx %r13, %r11 adoxq 24(%rsi), %r11 adcx %rcx, %rax adox %rcx, %rax imul %rdx, %rax ;# Step 2: Fold the carry back into dst add %rax, %r8 adcx %rcx, %r9 movq %r9, 8(%rdi) adcx %rcx, %r10 movq %r10, 16(%rdi) adcx %rcx, %r11 movq %r11, 24(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 0(%rdi) pop %rdi pop %rsi pop %rbx pop %r12 pop %r14 pop %r13 pop %r15 ret .global fsqr2_e fsqr2_e: push %r15 push %r13 push %r14 push %r12 push %rbx push %rsi push %rdi mov %rcx, %rdi mov %rdx, %rsi mov %r8, %r12 ;# Step 1: Compute all partial products movq 0(%rsi), %rdx ;# f[0] mulxq 8(%rsi), %r8, %r14 xor %r15d, %r15d ;# f[1]*f[0] mulxq 16(%rsi), %r9, %r10 adcx %r14, %r9 ;# f[2]*f[0] mulxq 24(%rsi), %rax, %rcx adcx %rax, %r10 ;# f[3]*f[0] movq 24(%rsi), %rdx ;# f[3] mulxq 8(%rsi), %r11, %rbx adcx %rcx, %r11 ;# f[1]*f[3] mulxq 16(%rsi), %rax, %r13 adcx %rax, %rbx ;# f[2]*f[3] movq 8(%rsi), %rdx adcx %r15, %r13 ;# f1 mulxq 16(%rsi), %rax, %rcx mov $0, %r14 ;# f[2]*f[1] ;# Step 2: Compute two parallel carry chains xor %r15d, %r15d adox %rax, %r10 adcx %r8, %r8 adox %rcx, %r11 adcx %r9, %r9 adox %r15, %rbx adcx %r10, %r10 adox %r15, %r13 adcx %r11, %r11 adox %r15, %r14 adcx %rbx, %rbx adcx %r13, %r13 adcx %r14, %r14 ;# Step 3: Compute intermediate squares movq 0(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[0]^2 movq %rax, 0(%rdi) add %rcx, %r8 movq %r8, 8(%rdi) movq 8(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[1]^2 adcx %rax, %r9 movq %r9, 16(%rdi) adcx %rcx, %r10 movq %r10, 24(%rdi) movq 16(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[2]^2 adcx %rax, %r11 movq %r11, 32(%rdi) adcx %rcx, %rbx movq %rbx, 40(%rdi) movq 24(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[3]^2 adcx %rax, %r13 movq %r13, 48(%rdi) adcx %rcx, %r14 movq %r14, 56(%rdi) ;# Step 1: Compute all partial products movq 32(%rsi), %rdx ;# f[0] mulxq 40(%rsi), %r8, %r14 xor %r15d, %r15d ;# f[1]*f[0] mulxq 48(%rsi), %r9, %r10 adcx %r14, %r9 ;# f[2]*f[0] mulxq 56(%rsi), %rax, %rcx adcx %rax, %r10 ;# f[3]*f[0] movq 56(%rsi), %rdx ;# f[3] mulxq 40(%rsi), %r11, %rbx adcx %rcx, %r11 ;# f[1]*f[3] mulxq 48(%rsi), %rax, %r13 adcx %rax, %rbx ;# f[2]*f[3] movq 40(%rsi), %rdx adcx %r15, %r13 ;# f1 mulxq 48(%rsi), %rax, %rcx mov $0, %r14 ;# f[2]*f[1] ;# Step 2: Compute two parallel carry chains xor %r15d, %r15d adox %rax, %r10 adcx %r8, %r8 adox %rcx, %r11 adcx %r9, %r9 adox %r15, %rbx adcx %r10, %r10 adox %r15, %r13 adcx %r11, %r11 adox %r15, %r14 adcx %rbx, %rbx adcx %r13, %r13 adcx %r14, %r14 ;# Step 3: Compute intermediate squares movq 32(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[0]^2 movq %rax, 64(%rdi) add %rcx, %r8 movq %r8, 72(%rdi) movq 40(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[1]^2 adcx %rax, %r9 movq %r9, 80(%rdi) adcx %rcx, %r10 movq %r10, 88(%rdi) movq 48(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[2]^2 adcx %rax, %r11 movq %r11, 96(%rdi) adcx %rcx, %rbx movq %rbx, 104(%rdi) movq 56(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[3]^2 adcx %rax, %r13 movq %r13, 112(%rdi) adcx %rcx, %r14 movq %r14, 120(%rdi) ;# Line up pointers mov %rdi, %rsi mov %r12, %rdi ;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo mov $38, %rdx mulxq 32(%rsi), %r8, %r13 xor %ecx, %ecx adoxq 0(%rsi), %r8 mulxq 40(%rsi), %r9, %rbx adcx %r13, %r9 adoxq 8(%rsi), %r9 mulxq 48(%rsi), %r10, %r13 adcx %rbx, %r10 adoxq 16(%rsi), %r10 mulxq 56(%rsi), %r11, %rax adcx %r13, %r11 adoxq 24(%rsi), %r11 adcx %rcx, %rax adox %rcx, %rax imul %rdx, %rax ;# Step 2: Fold the carry back into dst add %rax, %r8 adcx %rcx, %r9 movq %r9, 8(%rdi) adcx %rcx, %r10 movq %r10, 16(%rdi) adcx %rcx, %r11 movq %r11, 24(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 0(%rdi) ;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo mov $38, %rdx mulxq 96(%rsi), %r8, %r13 xor %ecx, %ecx adoxq 64(%rsi), %r8 mulxq 104(%rsi), %r9, %rbx adcx %r13, %r9 adoxq 72(%rsi), %r9 mulxq 112(%rsi), %r10, %r13 adcx %rbx, %r10 adoxq 80(%rsi), %r10 mulxq 120(%rsi), %r11, %rax adcx %r13, %r11 adoxq 88(%rsi), %r11 adcx %rcx, %rax adox %rcx, %rax imul %rdx, %rax ;# Step 2: Fold the carry back into dst add %rax, %r8 adcx %rcx, %r9 movq %r9, 40(%rdi) adcx %rcx, %r10 movq %r10, 48(%rdi) adcx %rcx, %r11 movq %r11, 56(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 32(%rdi) pop %rdi pop %rsi pop %rbx pop %r12 pop %r14 pop %r13 pop %r15 ret .global cswap2_e cswap2_e: push %rdi push %rsi mov %rcx, %rdi mov %rdx, %rsi mov %r8, %rdx ;# Transfer bit into CF flag add $18446744073709551615, %rdi ;# cswap p1[0], p2[0] movq 0(%rsi), %r8 movq 0(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 0(%rsi) movq %r9, 0(%rdx) ;# cswap p1[1], p2[1] movq 8(%rsi), %r8 movq 8(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 8(%rsi) movq %r9, 8(%rdx) ;# cswap p1[2], p2[2] movq 16(%rsi), %r8 movq 16(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 16(%rsi) movq %r9, 16(%rdx) ;# cswap p1[3], p2[3] movq 24(%rsi), %r8 movq 24(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 24(%rsi) movq %r9, 24(%rdx) ;# cswap p1[4], p2[4] movq 32(%rsi), %r8 movq 32(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 32(%rsi) movq %r9, 32(%rdx) ;# cswap p1[5], p2[5] movq 40(%rsi), %r8 movq 40(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 40(%rsi) movq %r9, 40(%rdx) ;# cswap p1[6], p2[6] movq 48(%rsi), %r8 movq 48(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 48(%rsi) movq %r9, 48(%rdx) ;# cswap p1[7], p2[7] movq 56(%rsi), %r8 movq 56(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 56(%rsi) movq %r9, 56(%rdx) pop %rsi pop %rdi ret
verdict-x509/verdict
18,925
deps/libcrux/sys/hacl/c/vale/src/curve25519-x86_64-darwin.S
.text .global _add_scalar_e _add_scalar_e: push %rdi push %rsi ;# Clear registers to propagate the carry bit xor %r8d, %r8d xor %r9d, %r9d xor %r10d, %r10d xor %r11d, %r11d xor %eax, %eax ;# Begin addition chain addq 0(%rsi), %rdx movq %rdx, 0(%rdi) adcxq 8(%rsi), %r8 movq %r8, 8(%rdi) adcxq 16(%rsi), %r9 movq %r9, 16(%rdi) adcxq 24(%rsi), %r10 movq %r10, 24(%rdi) ;# Return the carry bit in a register adcx %r11, %rax pop %rsi pop %rdi ret .global _fadd_e _fadd_e: ;# Compute the raw addition of f1 + f2 movq 0(%rdx), %r8 addq 0(%rsi), %r8 movq 8(%rdx), %r9 adcxq 8(%rsi), %r9 movq 16(%rdx), %r10 adcxq 16(%rsi), %r10 movq 24(%rdx), %r11 adcxq 24(%rsi), %r11 ;# Wrap the result back into the field ;# Step 1: Compute carry*38 mov $0, %rax mov $38, %rdx cmovc %rdx, %rax ;# Step 2: Add carry*38 to the original sum xor %ecx, %ecx add %rax, %r8 adcx %rcx, %r9 movq %r9, 8(%rdi) adcx %rcx, %r10 movq %r10, 16(%rdi) adcx %rcx, %r11 movq %r11, 24(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 0(%rdi) ret .global _fsub_e _fsub_e: ;# Compute the raw substraction of f1-f2 movq 0(%rsi), %r8 subq 0(%rdx), %r8 movq 8(%rsi), %r9 sbbq 8(%rdx), %r9 movq 16(%rsi), %r10 sbbq 16(%rdx), %r10 movq 24(%rsi), %r11 sbbq 24(%rdx), %r11 ;# Wrap the result back into the field ;# Step 1: Compute carry*38 mov $0, %rax mov $38, %rcx cmovc %rcx, %rax ;# Step 2: Substract carry*38 from the original difference sub %rax, %r8 sbb $0, %r9 sbb $0, %r10 sbb $0, %r11 ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rcx, %rax sub %rax, %r8 ;# Store the result movq %r8, 0(%rdi) movq %r9, 8(%rdi) movq %r10, 16(%rdi) movq %r11, 24(%rdi) ret .global _fmul_scalar_e _fmul_scalar_e: push %rdi push %r13 push %rbx ;# Compute the raw multiplication of f1*f2 mulxq 0(%rsi), %r8, %rcx ;# f1[0]*f2 mulxq 8(%rsi), %r9, %rbx ;# f1[1]*f2 add %rcx, %r9 mov $0, %rcx mulxq 16(%rsi), %r10, %r13 ;# f1[2]*f2 adcx %rbx, %r10 mulxq 24(%rsi), %r11, %rax ;# f1[3]*f2 adcx %r13, %r11 adcx %rcx, %rax ;# Wrap the result back into the field ;# Step 1: Compute carry*38 mov $38, %rdx imul %rdx, %rax ;# Step 2: Fold the carry back into dst add %rax, %r8 adcx %rcx, %r9 movq %r9, 8(%rdi) adcx %rcx, %r10 movq %r10, 16(%rdi) adcx %rcx, %r11 movq %r11, 24(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 0(%rdi) pop %rbx pop %r13 pop %rdi ret .global _fmul_e _fmul_e: push %r13 push %r14 push %r15 push %rbx mov %rdx, %r15 ;# Compute the raw multiplication: tmp <- src1 * src2 ;# Compute src1[0] * src2 movq 0(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d movq %r8, 0(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 movq %r10, 8(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 mov $0, %rax adox %rdx, %rax ;# Compute src1[1] * src2 movq 8(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 8(%rdi), %r8 movq %r8, 8(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 16(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx mov $0, %r8 mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 mov $0, %rax adox %rdx, %rax adcx %r8, %rax ;# Compute src1[2] * src2 movq 16(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 16(%rdi), %r8 movq %r8, 16(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 24(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx mov $0, %r8 mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 mov $0, %rax adox %rdx, %rax adcx %r8, %rax ;# Compute src1[3] * src2 movq 24(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 24(%rdi), %r8 movq %r8, 24(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 32(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx movq %rbx, 40(%rdi) mov $0, %r8 mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 movq %r14, 48(%rdi) mov $0, %rax adox %rdx, %rax adcx %r8, %rax movq %rax, 56(%rdi) ;# Line up pointers mov %rdi, %rsi mov %r15, %rdi ;# Wrap the result back into the field ;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo mov $38, %rdx mulxq 32(%rsi), %r8, %r13 xor %ecx, %ecx adoxq 0(%rsi), %r8 mulxq 40(%rsi), %r9, %rbx adcx %r13, %r9 adoxq 8(%rsi), %r9 mulxq 48(%rsi), %r10, %r13 adcx %rbx, %r10 adoxq 16(%rsi), %r10 mulxq 56(%rsi), %r11, %rax adcx %r13, %r11 adoxq 24(%rsi), %r11 adcx %rcx, %rax adox %rcx, %rax imul %rdx, %rax ;# Step 2: Fold the carry back into dst add %rax, %r8 adcx %rcx, %r9 movq %r9, 8(%rdi) adcx %rcx, %r10 movq %r10, 16(%rdi) adcx %rcx, %r11 movq %r11, 24(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 0(%rdi) pop %rbx pop %r15 pop %r14 pop %r13 ret .global _fmul2_e _fmul2_e: push %r13 push %r14 push %r15 push %rbx mov %rdx, %r15 ;# Compute the raw multiplication tmp[0] <- f1[0] * f2[0] ;# Compute src1[0] * src2 movq 0(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d movq %r8, 0(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 movq %r10, 8(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 mov $0, %rax adox %rdx, %rax ;# Compute src1[1] * src2 movq 8(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 8(%rdi), %r8 movq %r8, 8(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 16(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx mov $0, %r8 mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 mov $0, %rax adox %rdx, %rax adcx %r8, %rax ;# Compute src1[2] * src2 movq 16(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 16(%rdi), %r8 movq %r8, 16(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 24(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx mov $0, %r8 mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 mov $0, %rax adox %rdx, %rax adcx %r8, %rax ;# Compute src1[3] * src2 movq 24(%rsi), %rdx mulxq 0(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 24(%rdi), %r8 movq %r8, 24(%rdi) mulxq 8(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 32(%rdi) mulxq 16(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx movq %rbx, 40(%rdi) mov $0, %r8 mulxq 24(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 movq %r14, 48(%rdi) mov $0, %rax adox %rdx, %rax adcx %r8, %rax movq %rax, 56(%rdi) ;# Compute the raw multiplication tmp[1] <- f1[1] * f2[1] ;# Compute src1[0] * src2 movq 32(%rsi), %rdx mulxq 32(%rcx), %r8, %r9 xor %r10d, %r10d movq %r8, 64(%rdi) mulxq 40(%rcx), %r10, %r11 adox %r9, %r10 movq %r10, 72(%rdi) mulxq 48(%rcx), %rbx, %r13 adox %r11, %rbx mulxq 56(%rcx), %r14, %rdx adox %r13, %r14 mov $0, %rax adox %rdx, %rax ;# Compute src1[1] * src2 movq 40(%rsi), %rdx mulxq 32(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 72(%rdi), %r8 movq %r8, 72(%rdi) mulxq 40(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 80(%rdi) mulxq 48(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx mov $0, %r8 mulxq 56(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 mov $0, %rax adox %rdx, %rax adcx %r8, %rax ;# Compute src1[2] * src2 movq 48(%rsi), %rdx mulxq 32(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 80(%rdi), %r8 movq %r8, 80(%rdi) mulxq 40(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 88(%rdi) mulxq 48(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx mov $0, %r8 mulxq 56(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 mov $0, %rax adox %rdx, %rax adcx %r8, %rax ;# Compute src1[3] * src2 movq 56(%rsi), %rdx mulxq 32(%rcx), %r8, %r9 xor %r10d, %r10d adcxq 88(%rdi), %r8 movq %r8, 88(%rdi) mulxq 40(%rcx), %r10, %r11 adox %r9, %r10 adcx %rbx, %r10 movq %r10, 96(%rdi) mulxq 48(%rcx), %rbx, %r13 adox %r11, %rbx adcx %r14, %rbx movq %rbx, 104(%rdi) mov $0, %r8 mulxq 56(%rcx), %r14, %rdx adox %r13, %r14 adcx %rax, %r14 movq %r14, 112(%rdi) mov $0, %rax adox %rdx, %rax adcx %r8, %rax movq %rax, 120(%rdi) ;# Line up pointers mov %rdi, %rsi mov %r15, %rdi ;# Wrap the results back into the field ;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo mov $38, %rdx mulxq 32(%rsi), %r8, %r13 xor %ecx, %ecx adoxq 0(%rsi), %r8 mulxq 40(%rsi), %r9, %rbx adcx %r13, %r9 adoxq 8(%rsi), %r9 mulxq 48(%rsi), %r10, %r13 adcx %rbx, %r10 adoxq 16(%rsi), %r10 mulxq 56(%rsi), %r11, %rax adcx %r13, %r11 adoxq 24(%rsi), %r11 adcx %rcx, %rax adox %rcx, %rax imul %rdx, %rax ;# Step 2: Fold the carry back into dst add %rax, %r8 adcx %rcx, %r9 movq %r9, 8(%rdi) adcx %rcx, %r10 movq %r10, 16(%rdi) adcx %rcx, %r11 movq %r11, 24(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 0(%rdi) ;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo mov $38, %rdx mulxq 96(%rsi), %r8, %r13 xor %ecx, %ecx adoxq 64(%rsi), %r8 mulxq 104(%rsi), %r9, %rbx adcx %r13, %r9 adoxq 72(%rsi), %r9 mulxq 112(%rsi), %r10, %r13 adcx %rbx, %r10 adoxq 80(%rsi), %r10 mulxq 120(%rsi), %r11, %rax adcx %r13, %r11 adoxq 88(%rsi), %r11 adcx %rcx, %rax adox %rcx, %rax imul %rdx, %rax ;# Step 2: Fold the carry back into dst add %rax, %r8 adcx %rcx, %r9 movq %r9, 40(%rdi) adcx %rcx, %r10 movq %r10, 48(%rdi) adcx %rcx, %r11 movq %r11, 56(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 32(%rdi) pop %rbx pop %r15 pop %r14 pop %r13 ret .global _fsqr_e _fsqr_e: push %r15 push %r13 push %r14 push %r12 push %rbx mov %rdx, %r12 ;# Compute the raw multiplication: tmp <- f * f ;# Step 1: Compute all partial products movq 0(%rsi), %rdx ;# f[0] mulxq 8(%rsi), %r8, %r14 xor %r15d, %r15d ;# f[1]*f[0] mulxq 16(%rsi), %r9, %r10 adcx %r14, %r9 ;# f[2]*f[0] mulxq 24(%rsi), %rax, %rcx adcx %rax, %r10 ;# f[3]*f[0] movq 24(%rsi), %rdx ;# f[3] mulxq 8(%rsi), %r11, %rbx adcx %rcx, %r11 ;# f[1]*f[3] mulxq 16(%rsi), %rax, %r13 adcx %rax, %rbx ;# f[2]*f[3] movq 8(%rsi), %rdx adcx %r15, %r13 ;# f1 mulxq 16(%rsi), %rax, %rcx mov $0, %r14 ;# f[2]*f[1] ;# Step 2: Compute two parallel carry chains xor %r15d, %r15d adox %rax, %r10 adcx %r8, %r8 adox %rcx, %r11 adcx %r9, %r9 adox %r15, %rbx adcx %r10, %r10 adox %r15, %r13 adcx %r11, %r11 adox %r15, %r14 adcx %rbx, %rbx adcx %r13, %r13 adcx %r14, %r14 ;# Step 3: Compute intermediate squares movq 0(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[0]^2 movq %rax, 0(%rdi) add %rcx, %r8 movq %r8, 8(%rdi) movq 8(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[1]^2 adcx %rax, %r9 movq %r9, 16(%rdi) adcx %rcx, %r10 movq %r10, 24(%rdi) movq 16(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[2]^2 adcx %rax, %r11 movq %r11, 32(%rdi) adcx %rcx, %rbx movq %rbx, 40(%rdi) movq 24(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[3]^2 adcx %rax, %r13 movq %r13, 48(%rdi) adcx %rcx, %r14 movq %r14, 56(%rdi) ;# Line up pointers mov %rdi, %rsi mov %r12, %rdi ;# Wrap the result back into the field ;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo mov $38, %rdx mulxq 32(%rsi), %r8, %r13 xor %ecx, %ecx adoxq 0(%rsi), %r8 mulxq 40(%rsi), %r9, %rbx adcx %r13, %r9 adoxq 8(%rsi), %r9 mulxq 48(%rsi), %r10, %r13 adcx %rbx, %r10 adoxq 16(%rsi), %r10 mulxq 56(%rsi), %r11, %rax adcx %r13, %r11 adoxq 24(%rsi), %r11 adcx %rcx, %rax adox %rcx, %rax imul %rdx, %rax ;# Step 2: Fold the carry back into dst add %rax, %r8 adcx %rcx, %r9 movq %r9, 8(%rdi) adcx %rcx, %r10 movq %r10, 16(%rdi) adcx %rcx, %r11 movq %r11, 24(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 0(%rdi) pop %rbx pop %r12 pop %r14 pop %r13 pop %r15 ret .global _fsqr2_e _fsqr2_e: push %r15 push %r13 push %r14 push %r12 push %rbx mov %rdx, %r12 ;# Step 1: Compute all partial products movq 0(%rsi), %rdx ;# f[0] mulxq 8(%rsi), %r8, %r14 xor %r15d, %r15d ;# f[1]*f[0] mulxq 16(%rsi), %r9, %r10 adcx %r14, %r9 ;# f[2]*f[0] mulxq 24(%rsi), %rax, %rcx adcx %rax, %r10 ;# f[3]*f[0] movq 24(%rsi), %rdx ;# f[3] mulxq 8(%rsi), %r11, %rbx adcx %rcx, %r11 ;# f[1]*f[3] mulxq 16(%rsi), %rax, %r13 adcx %rax, %rbx ;# f[2]*f[3] movq 8(%rsi), %rdx adcx %r15, %r13 ;# f1 mulxq 16(%rsi), %rax, %rcx mov $0, %r14 ;# f[2]*f[1] ;# Step 2: Compute two parallel carry chains xor %r15d, %r15d adox %rax, %r10 adcx %r8, %r8 adox %rcx, %r11 adcx %r9, %r9 adox %r15, %rbx adcx %r10, %r10 adox %r15, %r13 adcx %r11, %r11 adox %r15, %r14 adcx %rbx, %rbx adcx %r13, %r13 adcx %r14, %r14 ;# Step 3: Compute intermediate squares movq 0(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[0]^2 movq %rax, 0(%rdi) add %rcx, %r8 movq %r8, 8(%rdi) movq 8(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[1]^2 adcx %rax, %r9 movq %r9, 16(%rdi) adcx %rcx, %r10 movq %r10, 24(%rdi) movq 16(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[2]^2 adcx %rax, %r11 movq %r11, 32(%rdi) adcx %rcx, %rbx movq %rbx, 40(%rdi) movq 24(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[3]^2 adcx %rax, %r13 movq %r13, 48(%rdi) adcx %rcx, %r14 movq %r14, 56(%rdi) ;# Step 1: Compute all partial products movq 32(%rsi), %rdx ;# f[0] mulxq 40(%rsi), %r8, %r14 xor %r15d, %r15d ;# f[1]*f[0] mulxq 48(%rsi), %r9, %r10 adcx %r14, %r9 ;# f[2]*f[0] mulxq 56(%rsi), %rax, %rcx adcx %rax, %r10 ;# f[3]*f[0] movq 56(%rsi), %rdx ;# f[3] mulxq 40(%rsi), %r11, %rbx adcx %rcx, %r11 ;# f[1]*f[3] mulxq 48(%rsi), %rax, %r13 adcx %rax, %rbx ;# f[2]*f[3] movq 40(%rsi), %rdx adcx %r15, %r13 ;# f1 mulxq 48(%rsi), %rax, %rcx mov $0, %r14 ;# f[2]*f[1] ;# Step 2: Compute two parallel carry chains xor %r15d, %r15d adox %rax, %r10 adcx %r8, %r8 adox %rcx, %r11 adcx %r9, %r9 adox %r15, %rbx adcx %r10, %r10 adox %r15, %r13 adcx %r11, %r11 adox %r15, %r14 adcx %rbx, %rbx adcx %r13, %r13 adcx %r14, %r14 ;# Step 3: Compute intermediate squares movq 32(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[0]^2 movq %rax, 64(%rdi) add %rcx, %r8 movq %r8, 72(%rdi) movq 40(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[1]^2 adcx %rax, %r9 movq %r9, 80(%rdi) adcx %rcx, %r10 movq %r10, 88(%rdi) movq 48(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[2]^2 adcx %rax, %r11 movq %r11, 96(%rdi) adcx %rcx, %rbx movq %rbx, 104(%rdi) movq 56(%rsi), %rdx mulx %rdx, %rax, %rcx ;# f[3]^2 adcx %rax, %r13 movq %r13, 112(%rdi) adcx %rcx, %r14 movq %r14, 120(%rdi) ;# Line up pointers mov %rdi, %rsi mov %r12, %rdi ;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo mov $38, %rdx mulxq 32(%rsi), %r8, %r13 xor %ecx, %ecx adoxq 0(%rsi), %r8 mulxq 40(%rsi), %r9, %rbx adcx %r13, %r9 adoxq 8(%rsi), %r9 mulxq 48(%rsi), %r10, %r13 adcx %rbx, %r10 adoxq 16(%rsi), %r10 mulxq 56(%rsi), %r11, %rax adcx %r13, %r11 adoxq 24(%rsi), %r11 adcx %rcx, %rax adox %rcx, %rax imul %rdx, %rax ;# Step 2: Fold the carry back into dst add %rax, %r8 adcx %rcx, %r9 movq %r9, 8(%rdi) adcx %rcx, %r10 movq %r10, 16(%rdi) adcx %rcx, %r11 movq %r11, 24(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 0(%rdi) ;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo mov $38, %rdx mulxq 96(%rsi), %r8, %r13 xor %ecx, %ecx adoxq 64(%rsi), %r8 mulxq 104(%rsi), %r9, %rbx adcx %r13, %r9 adoxq 72(%rsi), %r9 mulxq 112(%rsi), %r10, %r13 adcx %rbx, %r10 adoxq 80(%rsi), %r10 mulxq 120(%rsi), %r11, %rax adcx %r13, %r11 adoxq 88(%rsi), %r11 adcx %rcx, %rax adox %rcx, %rax imul %rdx, %rax ;# Step 2: Fold the carry back into dst add %rax, %r8 adcx %rcx, %r9 movq %r9, 40(%rdi) adcx %rcx, %r10 movq %r10, 48(%rdi) adcx %rcx, %r11 movq %r11, 56(%rdi) ;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point mov $0, %rax cmovc %rdx, %rax add %rax, %r8 movq %r8, 32(%rdi) pop %rbx pop %r12 pop %r14 pop %r13 pop %r15 ret .global _cswap2_e _cswap2_e: ;# Transfer bit into CF flag add $18446744073709551615, %rdi ;# cswap p1[0], p2[0] movq 0(%rsi), %r8 movq 0(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 0(%rsi) movq %r9, 0(%rdx) ;# cswap p1[1], p2[1] movq 8(%rsi), %r8 movq 8(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 8(%rsi) movq %r9, 8(%rdx) ;# cswap p1[2], p2[2] movq 16(%rsi), %r8 movq 16(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 16(%rsi) movq %r9, 16(%rdx) ;# cswap p1[3], p2[3] movq 24(%rsi), %r8 movq 24(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 24(%rsi) movq %r9, 24(%rdx) ;# cswap p1[4], p2[4] movq 32(%rsi), %r8 movq 32(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 32(%rsi) movq %r9, 32(%rdx) ;# cswap p1[5], p2[5] movq 40(%rsi), %r8 movq 40(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 40(%rsi) movq %r9, 40(%rdx) ;# cswap p1[6], p2[6] movq 48(%rsi), %r8 movq 48(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 48(%rsi) movq %r9, 48(%rdx) ;# cswap p1[7], p2[7] movq 56(%rsi), %r8 movq 56(%rdx), %r9 mov %r8, %r10 cmovc %r9, %r8 cmovc %r10, %r9 movq %r8, 56(%rsi) movq %r9, 56(%rdx) ret
verdict-x509/verdict
2,344
deps/libcrux/sys/hacl/c/vale/src/cpuid-x86_64-mingw.S
.text .global check_aesni check_aesni: mov %rbx, %r9 mov $0, %rcx mov $1, %rax cpuid mov %rcx, %rax and $33554432, %rax shr $24, %rax and $2, %rcx and %rcx, %rax mov %r9, %rbx ret .global check_sha check_sha: mov %rbx, %r9 mov $7, %rax mov $0, %rcx cpuid and $536870912, %rbx mov %rbx, %rax mov %r9, %rbx ret .global check_adx_bmi2 check_adx_bmi2: mov %rbx, %r9 mov $7, %rax mov $0, %rcx cpuid mov %rbx, %rax and $524288, %rax shr $11, %rax and $256, %rbx and %rbx, %rax mov %r9, %rbx ret .global check_avx check_avx: mov %rbx, %r9 mov $0, %rcx mov $1, %rax cpuid mov %rcx, %rax and $268435456, %rax shr $27, %rax mov %r9, %rbx ret .global check_avx2 check_avx2: mov %rbx, %r9 mov $7, %rax mov $0, %rcx cpuid and $32, %rbx mov %rbx, %rax mov %r9, %rbx ret .global check_movbe check_movbe: mov %rbx, %r9 mov $0, %rcx mov $1, %rax cpuid mov %rcx, %rax and $4194304, %rax shr $21, %rax mov %r9, %rbx ret .global check_sse check_sse: mov %rbx, %r9 mov $0, %rcx mov $1, %rax cpuid mov %rcx, %rax and $524288, %rax and $512, %rcx and $67108864, %rdx shr $10, %rax shr $17, %rdx and %rdx, %rax and %rcx, %rax mov %r9, %rbx ret .global check_rdrand check_rdrand: mov %rbx, %r9 mov $0, %rcx mov $1, %rax cpuid mov %rcx, %rax and $1073741824, %rax shr $29, %rax mov %r9, %rbx ret .global check_avx512 check_avx512: mov %rbx, %r9 mov $7, %rax mov $0, %rcx cpuid mov %rbx, %rax mov %rbx, %r10 mov %rbx, %r11 and $65536, %rbx and $131072, %rax and $1073741824, %r10 shr $1, %rax shr $14, %r10 and %rbx, %rax mov $2147483648, %rbx and %rbx, %r11 shr $15, %r11 and %r10, %rax and %r11, %rax mov %r9, %rbx ret .global check_osxsave check_osxsave: mov %rbx, %r9 mov $0, %rcx mov $1, %rax cpuid mov %rcx, %rax and $134217728, %rax shr $26, %rax mov %r9, %rbx ret .global check_avx_xcr0 check_avx_xcr0: mov $0, %rcx xgetbv mov %rax, %rcx and $4, %rax shr $1, %rax and $2, %rcx and %rcx, %rax ret .global check_avx512_xcr0 check_avx512_xcr0: mov $0, %rcx xgetbv mov %rax, %rcx mov %rax, %rdx and $32, %rax and $64, %rcx and $128, %rdx shr $2, %rdx shr $1, %rcx and %rdx, %rax and %rcx, %rax ret
verdict-x509/verdict
199,564
deps/libcrux/sys/hacl/c/vale/src/aesgcm-x86_64-darwin.S
.text .global _aes128_key_expansion _aes128_key_expansion: movdqu 0(%rdi), %xmm1 mov %rsi, %rdx movdqu %xmm1, 0(%rdx) aeskeygenassist $1, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 16(%rdx) aeskeygenassist $2, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 32(%rdx) aeskeygenassist $4, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 48(%rdx) aeskeygenassist $8, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 64(%rdx) aeskeygenassist $16, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 80(%rdx) aeskeygenassist $32, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 96(%rdx) aeskeygenassist $64, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 112(%rdx) aeskeygenassist $128, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 128(%rdx) aeskeygenassist $27, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 144(%rdx) aeskeygenassist $54, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 160(%rdx) pxor %xmm1, %xmm1 pxor %xmm2, %xmm2 pxor %xmm3, %xmm3 ret .global _aes128_keyhash_init _aes128_keyhash_init: mov $579005069656919567, %r8 pinsrq $0, %r8, %xmm4 mov $283686952306183, %r8 pinsrq $1, %r8, %xmm4 pxor %xmm0, %xmm0 movdqu %xmm0, 80(%rsi) mov %rdi, %r8 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pshufb %xmm4, %xmm0 mov %rsi, %rcx movdqu %xmm0, 32(%rcx) movdqu %xmm6, %xmm0 mov %r12, %rax movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 0(%rcx) movdqu %xmm6, %xmm1 movdqu %xmm6, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 16(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 48(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 64(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 96(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 112(%rcx) movdqu %xmm0, %xmm6 mov %rax, %r12 ret .global _aes256_key_expansion _aes256_key_expansion: movdqu 0(%rdi), %xmm1 movdqu 16(%rdi), %xmm3 mov %rsi, %rdx movdqu %xmm1, 0(%rdx) movdqu %xmm3, 16(%rdx) aeskeygenassist $1, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 32(%rdx) aeskeygenassist $0, %xmm1, %xmm2 pshufd $170, %xmm2, %xmm2 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 pxor %xmm2, %xmm3 movdqu %xmm3, 48(%rdx) aeskeygenassist $2, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 64(%rdx) aeskeygenassist $0, %xmm1, %xmm2 pshufd $170, %xmm2, %xmm2 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 pxor %xmm2, %xmm3 movdqu %xmm3, 80(%rdx) aeskeygenassist $4, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 96(%rdx) aeskeygenassist $0, %xmm1, %xmm2 pshufd $170, %xmm2, %xmm2 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 pxor %xmm2, %xmm3 movdqu %xmm3, 112(%rdx) aeskeygenassist $8, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 128(%rdx) aeskeygenassist $0, %xmm1, %xmm2 pshufd $170, %xmm2, %xmm2 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 pxor %xmm2, %xmm3 movdqu %xmm3, 144(%rdx) aeskeygenassist $16, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 160(%rdx) aeskeygenassist $0, %xmm1, %xmm2 pshufd $170, %xmm2, %xmm2 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 pxor %xmm2, %xmm3 movdqu %xmm3, 176(%rdx) aeskeygenassist $32, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 192(%rdx) aeskeygenassist $0, %xmm1, %xmm2 pshufd $170, %xmm2, %xmm2 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 pxor %xmm2, %xmm3 movdqu %xmm3, 208(%rdx) aeskeygenassist $64, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 224(%rdx) pxor %xmm1, %xmm1 pxor %xmm2, %xmm2 pxor %xmm3, %xmm3 pxor %xmm4, %xmm4 ret .global _aes256_keyhash_init _aes256_keyhash_init: mov $579005069656919567, %r8 pinsrq $0, %r8, %xmm4 mov $283686952306183, %r8 pinsrq $1, %r8, %xmm4 pxor %xmm0, %xmm0 movdqu %xmm0, 80(%rsi) mov %rdi, %r8 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pshufb %xmm4, %xmm0 mov %rsi, %rcx movdqu %xmm0, 32(%rcx) movdqu %xmm6, %xmm0 mov %r12, %rax movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 0(%rcx) movdqu %xmm6, %xmm1 movdqu %xmm6, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 16(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 48(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 64(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 96(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 112(%rcx) movdqu %xmm0, %xmm6 mov %rax, %r12 ret .global _gctr128_bytes _gctr128_bytes: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx movdqu 0(%r9), %xmm7 mov %rdi, %rax mov %rdx, %rbx mov %rcx, %r13 mov 72(%rsp), %rcx mov %rcx, %rbp imul $16, %rbp mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm8 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm8 mov %rcx, %rdx shr $2, %rdx and $3, %rcx cmp $0, %rdx jbe L0 mov %rax, %r9 mov %rbx, %r10 pshufb %xmm8, %xmm7 movdqu %xmm7, %xmm9 mov $579005069656919567, %rax pinsrq $0, %rax, %xmm0 mov $579005069656919567, %rax pinsrq $1, %rax, %xmm0 pshufb %xmm0, %xmm9 movdqu %xmm9, %xmm10 pxor %xmm3, %xmm3 mov $1, %rax pinsrd $2, %eax, %xmm3 paddd %xmm3, %xmm9 mov $3, %rax pinsrd $2, %eax, %xmm3 mov $2, %rax pinsrd $0, %eax, %xmm3 paddd %xmm3, %xmm10 pshufb %xmm8, %xmm9 pshufb %xmm8, %xmm10 pextrq $0, %xmm7, %rdi mov $283686952306183, %rax pinsrq $0, %rax, %xmm0 mov $579005069656919567, %rax pinsrq $1, %rax, %xmm0 pxor %xmm15, %xmm15 mov $4, %rax pinsrd $0, %eax, %xmm15 mov $4, %rax pinsrd $2, %eax, %xmm15 jmp L3 .balign 16 L2: pinsrq $0, %rdi, %xmm2 pinsrq $0, %rdi, %xmm12 pinsrq $0, %rdi, %xmm13 pinsrq $0, %rdi, %xmm14 shufpd $2, %xmm9, %xmm2 shufpd $0, %xmm9, %xmm12 shufpd $2, %xmm10, %xmm13 shufpd $0, %xmm10, %xmm14 pshufb %xmm0, %xmm9 pshufb %xmm0, %xmm10 movdqu 0(%r8), %xmm3 movdqu 16(%r8), %xmm4 movdqu 32(%r8), %xmm5 movdqu 48(%r8), %xmm6 paddd %xmm15, %xmm9 paddd %xmm15, %xmm10 pxor %xmm3, %xmm2 pxor %xmm3, %xmm12 pxor %xmm3, %xmm13 pxor %xmm3, %xmm14 pshufb %xmm0, %xmm9 pshufb %xmm0, %xmm10 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 aesenc %xmm5, %xmm2 aesenc %xmm5, %xmm12 aesenc %xmm5, %xmm13 aesenc %xmm5, %xmm14 aesenc %xmm6, %xmm2 aesenc %xmm6, %xmm12 aesenc %xmm6, %xmm13 aesenc %xmm6, %xmm14 movdqu 64(%r8), %xmm3 movdqu 80(%r8), %xmm4 movdqu 96(%r8), %xmm5 movdqu 112(%r8), %xmm6 aesenc %xmm3, %xmm2 aesenc %xmm3, %xmm12 aesenc %xmm3, %xmm13 aesenc %xmm3, %xmm14 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 aesenc %xmm5, %xmm2 aesenc %xmm5, %xmm12 aesenc %xmm5, %xmm13 aesenc %xmm5, %xmm14 aesenc %xmm6, %xmm2 aesenc %xmm6, %xmm12 aesenc %xmm6, %xmm13 aesenc %xmm6, %xmm14 movdqu 128(%r8), %xmm3 movdqu 144(%r8), %xmm4 movdqu 160(%r8), %xmm5 aesenc %xmm3, %xmm2 aesenc %xmm3, %xmm12 aesenc %xmm3, %xmm13 aesenc %xmm3, %xmm14 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 aesenclast %xmm5, %xmm2 aesenclast %xmm5, %xmm12 aesenclast %xmm5, %xmm13 aesenclast %xmm5, %xmm14 movdqu 0(%r9), %xmm7 pxor %xmm7, %xmm2 movdqu 16(%r9), %xmm7 pxor %xmm7, %xmm12 movdqu 32(%r9), %xmm7 pxor %xmm7, %xmm13 movdqu 48(%r9), %xmm7 pxor %xmm7, %xmm14 movdqu %xmm2, 0(%r10) movdqu %xmm12, 16(%r10) movdqu %xmm13, 32(%r10) movdqu %xmm14, 48(%r10) sub $1, %rdx add $64, %r9 add $64, %r10 .balign 16 L3: cmp $0, %rdx ja L2 movdqu %xmm9, %xmm7 pinsrq $0, %rdi, %xmm7 pshufb %xmm8, %xmm7 mov %r9, %rax mov %r10, %rbx jmp L1 L0: L1: mov $0, %rdx mov %rax, %r9 mov %rbx, %r10 pxor %xmm4, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 jmp L5 .balign 16 L4: movdqu %xmm7, %xmm0 pshufb %xmm8, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%r9), %xmm2 pxor %xmm0, %xmm2 movdqu %xmm2, 0(%r10) add $1, %rdx add $16, %r9 add $16, %r10 paddd %xmm4, %xmm7 .balign 16 L5: cmp %rcx, %rdx jne L4 cmp %rbp, %rsi jbe L6 movdqu 0(%r13), %xmm1 movdqu %xmm7, %xmm0 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm2 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm2 pshufb %xmm2, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pxor %xmm0, %xmm1 movdqu %xmm1, 0(%r13) jmp L7 L6: L7: pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 ret .global _gctr256_bytes _gctr256_bytes: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx movdqu 0(%r9), %xmm7 mov %rdi, %rax mov %rdx, %rbx mov %rcx, %r13 mov 72(%rsp), %rcx mov %rcx, %rbp imul $16, %rbp mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm8 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm8 mov %rcx, %rdx shr $2, %rdx and $3, %rcx cmp $0, %rdx jbe L8 mov %rax, %r9 mov %rbx, %r10 pshufb %xmm8, %xmm7 movdqu %xmm7, %xmm9 mov $579005069656919567, %rax pinsrq $0, %rax, %xmm0 mov $579005069656919567, %rax pinsrq $1, %rax, %xmm0 pshufb %xmm0, %xmm9 movdqu %xmm9, %xmm10 pxor %xmm3, %xmm3 mov $1, %rax pinsrd $2, %eax, %xmm3 paddd %xmm3, %xmm9 mov $3, %rax pinsrd $2, %eax, %xmm3 mov $2, %rax pinsrd $0, %eax, %xmm3 paddd %xmm3, %xmm10 pshufb %xmm8, %xmm9 pshufb %xmm8, %xmm10 pextrq $0, %xmm7, %rdi mov $283686952306183, %rax pinsrq $0, %rax, %xmm0 mov $579005069656919567, %rax pinsrq $1, %rax, %xmm0 pxor %xmm15, %xmm15 mov $4, %rax pinsrd $0, %eax, %xmm15 mov $4, %rax pinsrd $2, %eax, %xmm15 jmp L11 .balign 16 L10: pinsrq $0, %rdi, %xmm2 pinsrq $0, %rdi, %xmm12 pinsrq $0, %rdi, %xmm13 pinsrq $0, %rdi, %xmm14 shufpd $2, %xmm9, %xmm2 shufpd $0, %xmm9, %xmm12 shufpd $2, %xmm10, %xmm13 shufpd $0, %xmm10, %xmm14 pshufb %xmm0, %xmm9 pshufb %xmm0, %xmm10 movdqu 0(%r8), %xmm3 movdqu 16(%r8), %xmm4 movdqu 32(%r8), %xmm5 movdqu 48(%r8), %xmm6 paddd %xmm15, %xmm9 paddd %xmm15, %xmm10 pxor %xmm3, %xmm2 pxor %xmm3, %xmm12 pxor %xmm3, %xmm13 pxor %xmm3, %xmm14 pshufb %xmm0, %xmm9 pshufb %xmm0, %xmm10 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 aesenc %xmm5, %xmm2 aesenc %xmm5, %xmm12 aesenc %xmm5, %xmm13 aesenc %xmm5, %xmm14 aesenc %xmm6, %xmm2 aesenc %xmm6, %xmm12 aesenc %xmm6, %xmm13 aesenc %xmm6, %xmm14 movdqu 64(%r8), %xmm3 movdqu 80(%r8), %xmm4 movdqu 96(%r8), %xmm5 movdqu 112(%r8), %xmm6 aesenc %xmm3, %xmm2 aesenc %xmm3, %xmm12 aesenc %xmm3, %xmm13 aesenc %xmm3, %xmm14 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 aesenc %xmm5, %xmm2 aesenc %xmm5, %xmm12 aesenc %xmm5, %xmm13 aesenc %xmm5, %xmm14 aesenc %xmm6, %xmm2 aesenc %xmm6, %xmm12 aesenc %xmm6, %xmm13 aesenc %xmm6, %xmm14 movdqu 128(%r8), %xmm3 movdqu 144(%r8), %xmm4 movdqu 160(%r8), %xmm5 aesenc %xmm3, %xmm2 aesenc %xmm3, %xmm12 aesenc %xmm3, %xmm13 aesenc %xmm3, %xmm14 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 movdqu %xmm5, %xmm3 movdqu 176(%r8), %xmm4 movdqu 192(%r8), %xmm5 movdqu 208(%r8), %xmm6 aesenc %xmm3, %xmm2 aesenc %xmm3, %xmm12 aesenc %xmm3, %xmm13 aesenc %xmm3, %xmm14 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 aesenc %xmm5, %xmm2 aesenc %xmm5, %xmm12 aesenc %xmm5, %xmm13 aesenc %xmm5, %xmm14 aesenc %xmm6, %xmm2 aesenc %xmm6, %xmm12 aesenc %xmm6, %xmm13 aesenc %xmm6, %xmm14 movdqu 224(%r8), %xmm5 aesenclast %xmm5, %xmm2 aesenclast %xmm5, %xmm12 aesenclast %xmm5, %xmm13 aesenclast %xmm5, %xmm14 movdqu 0(%r9), %xmm7 pxor %xmm7, %xmm2 movdqu 16(%r9), %xmm7 pxor %xmm7, %xmm12 movdqu 32(%r9), %xmm7 pxor %xmm7, %xmm13 movdqu 48(%r9), %xmm7 pxor %xmm7, %xmm14 movdqu %xmm2, 0(%r10) movdqu %xmm12, 16(%r10) movdqu %xmm13, 32(%r10) movdqu %xmm14, 48(%r10) sub $1, %rdx add $64, %r9 add $64, %r10 .balign 16 L11: cmp $0, %rdx ja L10 movdqu %xmm9, %xmm7 pinsrq $0, %rdi, %xmm7 pshufb %xmm8, %xmm7 mov %r9, %rax mov %r10, %rbx jmp L9 L8: L9: mov $0, %rdx mov %rax, %r9 mov %rbx, %r10 pxor %xmm4, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 jmp L13 .balign 16 L12: movdqu %xmm7, %xmm0 pshufb %xmm8, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%r9), %xmm2 pxor %xmm0, %xmm2 movdqu %xmm2, 0(%r10) add $1, %rdx add $16, %r9 add $16, %r10 paddd %xmm4, %xmm7 .balign 16 L13: cmp %rcx, %rdx jne L12 cmp %rbp, %rsi jbe L14 movdqu 0(%r13), %xmm1 movdqu %xmm7, %xmm0 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm2 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm2 pshufb %xmm2, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pxor %xmm0, %xmm1 movdqu %xmm1, 0(%r13) jmp L15 L14: L15: pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 ret .global _compute_iv_stdcall _compute_iv_stdcall: cmp $12, %rsi jne L16 cmp $12, %rsi jne L18 movdqu 0(%r8), %xmm0 mov $579005069656919567, %rax pinsrq $0, %rax, %xmm1 mov $283686952306183, %rax pinsrq $1, %rax, %xmm1 pshufb %xmm1, %xmm0 mov $1, %rax pinsrd $0, %eax, %xmm0 movdqu %xmm0, 0(%rcx) jmp L19 L18: mov %rcx, %rax add $32, %r9 mov %r8, %rbx mov %rdx, %rcx imul $16, %rcx mov $579005069656919567, %r10 pinsrq $0, %r10, %xmm9 mov $283686952306183, %r10 pinsrq $1, %r10, %xmm9 pxor %xmm8, %xmm8 mov %rdi, %r11 jmp L21 .balign 16 L20: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L21: cmp $6, %rdx jae L20 cmp $0, %rdx jbe L22 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L24 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L25 L24: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L26 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L28 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L30 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L31 L30: L31: jmp L29 L28: L29: jmp L27 L26: L27: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L25: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L23 L22: L23: mov %rsi, %r15 cmp %rcx, %rsi jbe L32 movdqu 0(%rbx), %xmm0 mov %rsi, %r10 and $15, %r10 cmp $8, %r10 jae L34 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L35 L34: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L35: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L33 L32: L33: mov %rax, %rcx mov $0, %r11 mov %rsi, %r13 pxor %xmm0, %xmm0 mov %r11, %rax imul $8, %rax pinsrq $1, %rax, %xmm0 mov %r13, %rax imul $8, %rax pinsrq $0, %rax, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu %xmm8, 0(%rcx) L19: jmp L17 L16: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx cmp $12, %rsi jne L36 movdqu 0(%r8), %xmm0 mov $579005069656919567, %rax pinsrq $0, %rax, %xmm1 mov $283686952306183, %rax pinsrq $1, %rax, %xmm1 pshufb %xmm1, %xmm0 mov $1, %rax pinsrd $0, %eax, %xmm0 movdqu %xmm0, 0(%rcx) jmp L37 L36: mov %rcx, %rax add $32, %r9 mov %r8, %rbx mov %rdx, %rcx imul $16, %rcx mov $579005069656919567, %r10 pinsrq $0, %r10, %xmm9 mov $283686952306183, %r10 pinsrq $1, %r10, %xmm9 pxor %xmm8, %xmm8 mov %rdi, %r11 jmp L39 .balign 16 L38: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L39: cmp $6, %rdx jae L38 cmp $0, %rdx jbe L40 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L42 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L43 L42: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L44 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L46 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L48 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L49 L48: L49: jmp L47 L46: L47: jmp L45 L44: L45: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L43: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L41 L40: L41: mov %rsi, %r15 cmp %rcx, %rsi jbe L50 movdqu 0(%rbx), %xmm0 mov %rsi, %r10 and $15, %r10 cmp $8, %r10 jae L52 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L53 L52: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L53: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L51 L50: L51: mov %rax, %rcx mov $0, %r11 mov %rsi, %r13 pxor %xmm0, %xmm0 mov %r11, %rax imul $8, %rax pinsrq $1, %rax, %xmm0 mov %r13, %rax imul $8, %rax pinsrq $0, %rax, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu %xmm8, 0(%rcx) L37: pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 L17: ret .global _gcm128_encrypt_opt _gcm128_encrypt_opt: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx mov 144(%rsp), %rbp mov %rcx, %r13 lea 32(%r9), %r9 mov 72(%rsp), %rbx mov %rdx, %rcx imul $16, %rcx mov $579005069656919567, %r10 pinsrq $0, %r10, %xmm9 mov $283686952306183, %r10 pinsrq $1, %r10, %xmm9 pxor %xmm8, %xmm8 mov %rdi, %r11 jmp L55 .balign 16 L54: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L55: cmp $6, %rdx jae L54 cmp $0, %rdx jbe L56 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L58 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L59 L58: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L60 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L62 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L64 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L65 L64: L65: jmp L63 L62: L63: jmp L61 L60: L61: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L59: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L57 L56: L57: mov %rsi, %r15 cmp %rcx, %rsi jbe L66 movdqu 0(%rbx), %xmm0 mov %rsi, %r10 and $15, %r10 cmp $8, %r10 jae L68 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L69 L68: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L69: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L67 L66: L67: mov 80(%rsp), %rdi mov 88(%rsp), %rsi mov 96(%rsp), %rdx mov %r13, %rcx movdqu %xmm9, %xmm0 movdqu 0(%r8), %xmm1 movdqu %xmm1, 0(%rbp) pxor %xmm10, %xmm10 mov $1, %r11 pinsrq $0, %r11, %xmm10 vpaddd %xmm10, %xmm1, %xmm1 cmp $0, %rdx jne L70 vpshufb %xmm0, %xmm1, %xmm1 movdqu %xmm1, 32(%rbp) jmp L71 L70: movdqu %xmm8, 32(%rbp) add $128, %rcx pextrq $0, %xmm1, %rbx and $255, %rbx vpshufb %xmm0, %xmm1, %xmm1 lea 96(%rsi), %r14 movdqu -128(%rcx), %xmm4 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 movdqu -112(%rcx), %xmm15 mov %rcx, %r12 sub $96, %r12 vpxor %xmm4, %xmm1, %xmm9 add $6, %rbx cmp $256, %rbx jae L72 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm2, %xmm11, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm2, %xmm12, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpaddd %xmm2, %xmm14, %xmm1 vpxor %xmm4, %xmm14, %xmm14 jmp L73 L72: sub $256, %rbx vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpshufb %xmm0, %xmm14, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpshufb %xmm0, %xmm1, %xmm1 vpxor %xmm4, %xmm14, %xmm14 L73: vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -16(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 16(%rcx), %xmm15 movdqu 32(%rcx), %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor 0(%rdi), %xmm3, %xmm4 vaesenc %xmm15, %xmm10, %xmm10 vpxor 16(%rdi), %xmm3, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 vpxor 32(%rdi), %xmm3, %xmm6 vaesenc %xmm15, %xmm12, %xmm12 vpxor 48(%rdi), %xmm3, %xmm8 vaesenc %xmm15, %xmm13, %xmm13 vpxor 64(%rdi), %xmm3, %xmm2 vaesenc %xmm15, %xmm14, %xmm14 vpxor 80(%rdi), %xmm3, %xmm3 lea 96(%rdi), %rdi vaesenclast %xmm4, %xmm9, %xmm9 vaesenclast %xmm5, %xmm10, %xmm10 vaesenclast %xmm6, %xmm11, %xmm11 vaesenclast %xmm8, %xmm12, %xmm12 vaesenclast %xmm2, %xmm13, %xmm13 vaesenclast %xmm3, %xmm14, %xmm14 movdqu %xmm9, 0(%rsi) movdqu %xmm10, 16(%rsi) movdqu %xmm11, 32(%rsi) movdqu %xmm12, 48(%rsi) movdqu %xmm13, 64(%rsi) movdqu %xmm14, 80(%rsi) lea 96(%rsi), %rsi vpshufb %xmm0, %xmm9, %xmm8 vpshufb %xmm0, %xmm10, %xmm2 movdqu %xmm8, 112(%rbp) vpshufb %xmm0, %xmm11, %xmm4 movdqu %xmm2, 96(%rbp) vpshufb %xmm0, %xmm12, %xmm5 movdqu %xmm4, 80(%rbp) vpshufb %xmm0, %xmm13, %xmm6 movdqu %xmm5, 64(%rbp) vpshufb %xmm0, %xmm14, %xmm7 movdqu %xmm6, 48(%rbp) movdqu -128(%rcx), %xmm4 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 movdqu -112(%rcx), %xmm15 mov %rcx, %r12 sub $96, %r12 vpxor %xmm4, %xmm1, %xmm9 add $6, %rbx cmp $256, %rbx jae L74 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm2, %xmm11, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm2, %xmm12, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpaddd %xmm2, %xmm14, %xmm1 vpxor %xmm4, %xmm14, %xmm14 jmp L75 L74: sub $256, %rbx vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpshufb %xmm0, %xmm14, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpshufb %xmm0, %xmm1, %xmm1 vpxor %xmm4, %xmm14, %xmm14 L75: vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -16(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 16(%rcx), %xmm15 movdqu 32(%rcx), %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor 0(%rdi), %xmm3, %xmm4 vaesenc %xmm15, %xmm10, %xmm10 vpxor 16(%rdi), %xmm3, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 vpxor 32(%rdi), %xmm3, %xmm6 vaesenc %xmm15, %xmm12, %xmm12 vpxor 48(%rdi), %xmm3, %xmm8 vaesenc %xmm15, %xmm13, %xmm13 vpxor 64(%rdi), %xmm3, %xmm2 vaesenc %xmm15, %xmm14, %xmm14 vpxor 80(%rdi), %xmm3, %xmm3 lea 96(%rdi), %rdi vaesenclast %xmm4, %xmm9, %xmm9 vaesenclast %xmm5, %xmm10, %xmm10 vaesenclast %xmm6, %xmm11, %xmm11 vaesenclast %xmm8, %xmm12, %xmm12 vaesenclast %xmm2, %xmm13, %xmm13 vaesenclast %xmm3, %xmm14, %xmm14 movdqu %xmm9, 0(%rsi) movdqu %xmm10, 16(%rsi) movdqu %xmm11, 32(%rsi) movdqu %xmm12, 48(%rsi) movdqu %xmm13, 64(%rsi) movdqu %xmm14, 80(%rsi) lea 96(%rsi), %rsi sub $12, %rdx movdqu 32(%rbp), %xmm8 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vpxor %xmm4, %xmm4, %xmm4 movdqu -128(%rcx), %xmm15 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpaddd %xmm2, %xmm11, %xmm12 vpaddd %xmm2, %xmm12, %xmm13 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm4, 16(%rbp) jmp L77 .balign 16 L76: add $6, %rbx cmp $256, %rbx jb L78 mov $579005069656919567, %r11 pinsrq $0, %r11, %xmm0 mov $283686952306183, %r11 pinsrq $1, %r11, %xmm0 vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 movdqu -32(%r9), %xmm3 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm15, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm15, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpshufb %xmm0, %xmm14, %xmm14 vpshufb %xmm0, %xmm1, %xmm1 sub $256, %rbx jmp L79 L78: movdqu -32(%r9), %xmm3 vpaddd %xmm14, %xmm2, %xmm1 vpxor %xmm15, %xmm10, %xmm10 vpxor %xmm15, %xmm11, %xmm11 L79: movdqu %xmm1, 128(%rbp) vpclmulqdq $16, %xmm3, %xmm7, %xmm5 vpxor %xmm15, %xmm12, %xmm12 movdqu -112(%rcx), %xmm2 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vaesenc %xmm2, %xmm9, %xmm9 movdqu 48(%rbp), %xmm0 vpxor %xmm15, %xmm13, %xmm13 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vaesenc %xmm2, %xmm10, %xmm10 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 vaesenc %xmm2, %xmm11, %xmm11 movdqu -16(%r9), %xmm3 vaesenc %xmm2, %xmm12, %xmm12 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vaesenc %xmm2, %xmm13, %xmm13 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vaesenc %xmm2, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 vaesenc %xmm15, %xmm10, %xmm10 movbeq 88(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 80(%r14), %r12 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 32(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 40(%rbp) movdqu 16(%r9), %xmm5 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vaesenc %xmm15, %xmm11, %xmm11 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vaesenc %xmm15, %xmm10, %xmm10 movbeq 72(%r14), %r13 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 movbeq 64(%r14), %r12 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 48(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 56(%rbp) vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vaesenc %xmm15, %xmm10, %xmm10 movbeq 56(%r14), %r13 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vaesenc %xmm15, %xmm11, %xmm11 movbeq 48(%r14), %r12 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 64(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 72(%rbp) vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vaesenc %xmm15, %xmm10, %xmm10 movbeq 40(%r14), %r13 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 movbeq 32(%r14), %r12 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 80(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 88(%rbp) vpxor %xmm5, %xmm6, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor %xmm1, %xmm6, %xmm6 movdqu -16(%rcx), %xmm15 vpslldq $8, %xmm6, %xmm5 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $13979173243358019584, %r11 pinsrq $1, %r11, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm8, %xmm7, %xmm7 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm5, %xmm4, %xmm4 movbeq 24(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 16(%r14), %r12 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 movq %r13, 96(%rbp) vaesenc %xmm15, %xmm12, %xmm12 movq %r12, 104(%rbp) vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm1 vaesenc %xmm1, %xmm9, %xmm9 movdqu 16(%rcx), %xmm15 vaesenc %xmm1, %xmm10, %xmm10 vpsrldq $8, %xmm6, %xmm6 vaesenc %xmm1, %xmm11, %xmm11 vpxor %xmm6, %xmm7, %xmm7 vaesenc %xmm1, %xmm12, %xmm12 vpxor %xmm0, %xmm4, %xmm4 movbeq 8(%r14), %r13 vaesenc %xmm1, %xmm13, %xmm13 movbeq 0(%r14), %r12 vaesenc %xmm1, %xmm14, %xmm14 movdqu 32(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 movdqu %xmm7, 16(%rbp) vpalignr $8, %xmm4, %xmm4, %xmm8 vaesenc %xmm15, %xmm10, %xmm10 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor 0(%rdi), %xmm1, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 vpxor 16(%rdi), %xmm1, %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vpxor 32(%rdi), %xmm1, %xmm5 vaesenc %xmm15, %xmm13, %xmm13 vpxor 48(%rdi), %xmm1, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor 64(%rdi), %xmm1, %xmm7 vpxor 80(%rdi), %xmm1, %xmm3 movdqu 128(%rbp), %xmm1 vaesenclast %xmm2, %xmm9, %xmm9 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vaesenclast %xmm0, %xmm10, %xmm10 vpaddd %xmm2, %xmm1, %xmm0 movq %r13, 112(%rbp) lea 96(%rdi), %rdi vaesenclast %xmm5, %xmm11, %xmm11 vpaddd %xmm2, %xmm0, %xmm5 movq %r12, 120(%rbp) lea 96(%rsi), %rsi movdqu -128(%rcx), %xmm15 vaesenclast %xmm6, %xmm12, %xmm12 vpaddd %xmm2, %xmm5, %xmm6 vaesenclast %xmm7, %xmm13, %xmm13 vpaddd %xmm2, %xmm6, %xmm7 vaesenclast %xmm3, %xmm14, %xmm14 vpaddd %xmm2, %xmm7, %xmm3 sub $6, %rdx add $96, %r14 cmp $0, %rdx jbe L80 movdqu %xmm9, -96(%rsi) vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm10, -80(%rsi) movdqu %xmm0, %xmm10 movdqu %xmm11, -64(%rsi) movdqu %xmm5, %xmm11 movdqu %xmm12, -48(%rsi) movdqu %xmm6, %xmm12 movdqu %xmm13, -32(%rsi) movdqu %xmm7, %xmm13 movdqu %xmm14, -16(%rsi) movdqu %xmm3, %xmm14 movdqu 32(%rbp), %xmm7 jmp L81 L80: vpxor 16(%rbp), %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 L81: .balign 16 L77: cmp $0, %rdx ja L76 movdqu 32(%rbp), %xmm7 movdqu %xmm1, 32(%rbp) pxor %xmm4, %xmm4 movdqu %xmm4, 16(%rbp) movdqu -32(%r9), %xmm3 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vpclmulqdq $16, %xmm3, %xmm7, %xmm5 movdqu 48(%rbp), %xmm0 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 movdqu -16(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 movdqu 16(%r9), %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vpxor %xmm5, %xmm6, %xmm6 vpxor %xmm1, %xmm6, %xmm6 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $3254779904, %rax pinsrd $3, %eax, %xmm3 vpxor %xmm8, %xmm7, %xmm7 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm0 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm0 movdqu %xmm9, -96(%rsi) vpshufb %xmm0, %xmm9, %xmm9 vpxor %xmm7, %xmm1, %xmm1 movdqu %xmm10, -80(%rsi) vpshufb %xmm0, %xmm10, %xmm10 movdqu %xmm11, -64(%rsi) vpshufb %xmm0, %xmm11, %xmm11 movdqu %xmm12, -48(%rsi) vpshufb %xmm0, %xmm12, %xmm12 movdqu %xmm13, -32(%rsi) vpshufb %xmm0, %xmm13, %xmm13 movdqu %xmm14, -16(%rsi) vpshufb %xmm0, %xmm14, %xmm14 pxor %xmm4, %xmm4 movdqu %xmm14, %xmm7 movdqu %xmm4, 16(%rbp) movdqu %xmm13, 48(%rbp) movdqu %xmm12, 64(%rbp) movdqu %xmm11, 80(%rbp) movdqu %xmm10, 96(%rbp) movdqu %xmm9, 112(%rbp) movdqu -32(%r9), %xmm3 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vpclmulqdq $16, %xmm3, %xmm7, %xmm5 movdqu 48(%rbp), %xmm0 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 movdqu -16(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 movdqu 16(%r9), %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vpxor %xmm5, %xmm6, %xmm6 vpxor %xmm1, %xmm6, %xmm6 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $3254779904, %rax pinsrd $3, %eax, %xmm3 vpxor %xmm8, %xmm7, %xmm7 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 sub $128, %rcx L71: movdqu 32(%rbp), %xmm11 mov %rcx, %r8 mov 104(%rsp), %rax mov 112(%rsp), %rdi mov 120(%rsp), %rdx mov %rdx, %r14 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm9 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm9 pshufb %xmm9, %xmm11 pxor %xmm10, %xmm10 mov $1, %rbx pinsrd $0, %ebx, %xmm10 mov %rax, %r11 mov %rdi, %r10 mov $0, %rbx jmp L83 .balign 16 L82: movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%r11), %xmm2 pxor %xmm0, %xmm2 movdqu %xmm2, 0(%r10) add $1, %rbx add $16, %r11 add $16, %r10 paddd %xmm10, %xmm11 .balign 16 L83: cmp %rdx, %rbx jne L82 mov %rdi, %r11 jmp L85 .balign 16 L84: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L85: cmp $6, %rdx jae L84 cmp $0, %rdx jbe L86 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L88 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L89 L88: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L90 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L92 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L94 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L95 L94: L95: jmp L93 L92: L93: jmp L91 L90: L91: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L89: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L87 L86: L87: add 96(%rsp), %r14 imul $16, %r14 mov 136(%rsp), %r13 cmp %r14, %r13 jbe L96 mov 128(%rsp), %rax mov %r13, %r10 and $15, %r10 movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%rax), %xmm4 pxor %xmm4, %xmm0 movdqu %xmm0, 0(%rax) cmp $8, %r10 jae L98 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L99 L98: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L99: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L97 L96: L97: mov %r15, %r11 pxor %xmm0, %xmm0 mov %r11, %rax imul $8, %rax pinsrq $1, %rax, %xmm0 mov %r13, %rax imul $8, %rax pinsrq $0, %rax, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu 0(%rbp), %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pshufb %xmm9, %xmm8 pxor %xmm0, %xmm8 mov 152(%rsp), %r15 movdqu %xmm8, 0(%r15) pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 ret .global _gcm256_encrypt_opt _gcm256_encrypt_opt: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx mov 144(%rsp), %rbp mov %rcx, %r13 lea 32(%r9), %r9 mov 72(%rsp), %rbx mov %rdx, %rcx imul $16, %rcx mov $579005069656919567, %r10 pinsrq $0, %r10, %xmm9 mov $283686952306183, %r10 pinsrq $1, %r10, %xmm9 pxor %xmm8, %xmm8 mov %rdi, %r11 jmp L101 .balign 16 L100: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L101: cmp $6, %rdx jae L100 cmp $0, %rdx jbe L102 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L104 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L105 L104: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L106 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L108 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L110 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L111 L110: L111: jmp L109 L108: L109: jmp L107 L106: L107: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L105: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L103 L102: L103: mov %rsi, %r15 cmp %rcx, %rsi jbe L112 movdqu 0(%rbx), %xmm0 mov %rsi, %r10 and $15, %r10 cmp $8, %r10 jae L114 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L115 L114: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L115: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L113 L112: L113: mov 80(%rsp), %rdi mov 88(%rsp), %rsi mov 96(%rsp), %rdx mov %r13, %rcx movdqu %xmm9, %xmm0 movdqu 0(%r8), %xmm1 movdqu %xmm1, 0(%rbp) pxor %xmm10, %xmm10 mov $1, %r11 pinsrq $0, %r11, %xmm10 vpaddd %xmm10, %xmm1, %xmm1 cmp $0, %rdx jne L116 vpshufb %xmm0, %xmm1, %xmm1 movdqu %xmm1, 32(%rbp) jmp L117 L116: movdqu %xmm8, 32(%rbp) add $128, %rcx pextrq $0, %xmm1, %rbx and $255, %rbx vpshufb %xmm0, %xmm1, %xmm1 lea 96(%rsi), %r14 movdqu -128(%rcx), %xmm4 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 movdqu -112(%rcx), %xmm15 mov %rcx, %r12 sub $96, %r12 vpxor %xmm4, %xmm1, %xmm9 add $6, %rbx cmp $256, %rbx jae L118 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm2, %xmm11, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm2, %xmm12, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpaddd %xmm2, %xmm14, %xmm1 vpxor %xmm4, %xmm14, %xmm14 jmp L119 L118: sub $256, %rbx vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpshufb %xmm0, %xmm14, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpshufb %xmm0, %xmm1, %xmm1 vpxor %xmm4, %xmm14, %xmm14 L119: vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -16(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 16(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 32(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 48(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 64(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 80(%rcx), %xmm15 movdqu 96(%rcx), %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor 0(%rdi), %xmm3, %xmm4 vaesenc %xmm15, %xmm10, %xmm10 vpxor 16(%rdi), %xmm3, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 vpxor 32(%rdi), %xmm3, %xmm6 vaesenc %xmm15, %xmm12, %xmm12 vpxor 48(%rdi), %xmm3, %xmm8 vaesenc %xmm15, %xmm13, %xmm13 vpxor 64(%rdi), %xmm3, %xmm2 vaesenc %xmm15, %xmm14, %xmm14 vpxor 80(%rdi), %xmm3, %xmm3 lea 96(%rdi), %rdi vaesenclast %xmm4, %xmm9, %xmm9 vaesenclast %xmm5, %xmm10, %xmm10 vaesenclast %xmm6, %xmm11, %xmm11 vaesenclast %xmm8, %xmm12, %xmm12 vaesenclast %xmm2, %xmm13, %xmm13 vaesenclast %xmm3, %xmm14, %xmm14 movdqu %xmm9, 0(%rsi) movdqu %xmm10, 16(%rsi) movdqu %xmm11, 32(%rsi) movdqu %xmm12, 48(%rsi) movdqu %xmm13, 64(%rsi) movdqu %xmm14, 80(%rsi) lea 96(%rsi), %rsi vpshufb %xmm0, %xmm9, %xmm8 vpshufb %xmm0, %xmm10, %xmm2 movdqu %xmm8, 112(%rbp) vpshufb %xmm0, %xmm11, %xmm4 movdqu %xmm2, 96(%rbp) vpshufb %xmm0, %xmm12, %xmm5 movdqu %xmm4, 80(%rbp) vpshufb %xmm0, %xmm13, %xmm6 movdqu %xmm5, 64(%rbp) vpshufb %xmm0, %xmm14, %xmm7 movdqu %xmm6, 48(%rbp) movdqu -128(%rcx), %xmm4 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 movdqu -112(%rcx), %xmm15 mov %rcx, %r12 sub $96, %r12 vpxor %xmm4, %xmm1, %xmm9 add $6, %rbx cmp $256, %rbx jae L120 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm2, %xmm11, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm2, %xmm12, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpaddd %xmm2, %xmm14, %xmm1 vpxor %xmm4, %xmm14, %xmm14 jmp L121 L120: sub $256, %rbx vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpshufb %xmm0, %xmm14, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpshufb %xmm0, %xmm1, %xmm1 vpxor %xmm4, %xmm14, %xmm14 L121: vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -16(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 16(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 32(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 48(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 64(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 80(%rcx), %xmm15 movdqu 96(%rcx), %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor 0(%rdi), %xmm3, %xmm4 vaesenc %xmm15, %xmm10, %xmm10 vpxor 16(%rdi), %xmm3, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 vpxor 32(%rdi), %xmm3, %xmm6 vaesenc %xmm15, %xmm12, %xmm12 vpxor 48(%rdi), %xmm3, %xmm8 vaesenc %xmm15, %xmm13, %xmm13 vpxor 64(%rdi), %xmm3, %xmm2 vaesenc %xmm15, %xmm14, %xmm14 vpxor 80(%rdi), %xmm3, %xmm3 lea 96(%rdi), %rdi vaesenclast %xmm4, %xmm9, %xmm9 vaesenclast %xmm5, %xmm10, %xmm10 vaesenclast %xmm6, %xmm11, %xmm11 vaesenclast %xmm8, %xmm12, %xmm12 vaesenclast %xmm2, %xmm13, %xmm13 vaesenclast %xmm3, %xmm14, %xmm14 movdqu %xmm9, 0(%rsi) movdqu %xmm10, 16(%rsi) movdqu %xmm11, 32(%rsi) movdqu %xmm12, 48(%rsi) movdqu %xmm13, 64(%rsi) movdqu %xmm14, 80(%rsi) lea 96(%rsi), %rsi sub $12, %rdx movdqu 32(%rbp), %xmm8 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vpxor %xmm4, %xmm4, %xmm4 movdqu -128(%rcx), %xmm15 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpaddd %xmm2, %xmm11, %xmm12 vpaddd %xmm2, %xmm12, %xmm13 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm4, 16(%rbp) jmp L123 .balign 16 L122: add $6, %rbx cmp $256, %rbx jb L124 mov $579005069656919567, %r11 pinsrq $0, %r11, %xmm0 mov $283686952306183, %r11 pinsrq $1, %r11, %xmm0 vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 movdqu -32(%r9), %xmm3 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm15, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm15, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpshufb %xmm0, %xmm14, %xmm14 vpshufb %xmm0, %xmm1, %xmm1 sub $256, %rbx jmp L125 L124: movdqu -32(%r9), %xmm3 vpaddd %xmm14, %xmm2, %xmm1 vpxor %xmm15, %xmm10, %xmm10 vpxor %xmm15, %xmm11, %xmm11 L125: movdqu %xmm1, 128(%rbp) vpclmulqdq $16, %xmm3, %xmm7, %xmm5 vpxor %xmm15, %xmm12, %xmm12 movdqu -112(%rcx), %xmm2 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vaesenc %xmm2, %xmm9, %xmm9 movdqu 48(%rbp), %xmm0 vpxor %xmm15, %xmm13, %xmm13 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vaesenc %xmm2, %xmm10, %xmm10 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 vaesenc %xmm2, %xmm11, %xmm11 movdqu -16(%r9), %xmm3 vaesenc %xmm2, %xmm12, %xmm12 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vaesenc %xmm2, %xmm13, %xmm13 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vaesenc %xmm2, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 vaesenc %xmm15, %xmm10, %xmm10 movbeq 88(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 80(%r14), %r12 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 32(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 40(%rbp) movdqu 16(%r9), %xmm5 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vaesenc %xmm15, %xmm11, %xmm11 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vaesenc %xmm15, %xmm10, %xmm10 movbeq 72(%r14), %r13 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 movbeq 64(%r14), %r12 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 48(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 56(%rbp) vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vaesenc %xmm15, %xmm10, %xmm10 movbeq 56(%r14), %r13 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vaesenc %xmm15, %xmm11, %xmm11 movbeq 48(%r14), %r12 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 64(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 72(%rbp) vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vaesenc %xmm15, %xmm10, %xmm10 movbeq 40(%r14), %r13 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 movbeq 32(%r14), %r12 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 80(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 88(%rbp) vpxor %xmm5, %xmm6, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor %xmm1, %xmm6, %xmm6 movdqu -16(%rcx), %xmm15 vpslldq $8, %xmm6, %xmm5 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $13979173243358019584, %r11 pinsrq $1, %r11, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm8, %xmm7, %xmm7 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm5, %xmm4, %xmm4 movbeq 24(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 16(%r14), %r12 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 movq %r13, 96(%rbp) vaesenc %xmm15, %xmm12, %xmm12 movq %r12, 104(%rbp) vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm1 vaesenc %xmm1, %xmm9, %xmm9 movdqu 16(%rcx), %xmm15 vaesenc %xmm1, %xmm10, %xmm10 vpsrldq $8, %xmm6, %xmm6 vaesenc %xmm1, %xmm11, %xmm11 vpxor %xmm6, %xmm7, %xmm7 vaesenc %xmm1, %xmm12, %xmm12 vpxor %xmm0, %xmm4, %xmm4 movbeq 8(%r14), %r13 vaesenc %xmm1, %xmm13, %xmm13 movbeq 0(%r14), %r12 vaesenc %xmm1, %xmm14, %xmm14 movdqu 32(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 vaesenc %xmm1, %xmm9, %xmm9 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm1, %xmm13, %xmm13 movdqu 48(%rcx), %xmm15 vaesenc %xmm1, %xmm14, %xmm14 movdqu 64(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 vaesenc %xmm1, %xmm9, %xmm9 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm1, %xmm13, %xmm13 movdqu 80(%rcx), %xmm15 vaesenc %xmm1, %xmm14, %xmm14 movdqu 96(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 movdqu %xmm7, 16(%rbp) vpalignr $8, %xmm4, %xmm4, %xmm8 vaesenc %xmm15, %xmm10, %xmm10 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor 0(%rdi), %xmm1, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 vpxor 16(%rdi), %xmm1, %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vpxor 32(%rdi), %xmm1, %xmm5 vaesenc %xmm15, %xmm13, %xmm13 vpxor 48(%rdi), %xmm1, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor 64(%rdi), %xmm1, %xmm7 vpxor 80(%rdi), %xmm1, %xmm3 movdqu 128(%rbp), %xmm1 vaesenclast %xmm2, %xmm9, %xmm9 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vaesenclast %xmm0, %xmm10, %xmm10 vpaddd %xmm2, %xmm1, %xmm0 movq %r13, 112(%rbp) lea 96(%rdi), %rdi vaesenclast %xmm5, %xmm11, %xmm11 vpaddd %xmm2, %xmm0, %xmm5 movq %r12, 120(%rbp) lea 96(%rsi), %rsi movdqu -128(%rcx), %xmm15 vaesenclast %xmm6, %xmm12, %xmm12 vpaddd %xmm2, %xmm5, %xmm6 vaesenclast %xmm7, %xmm13, %xmm13 vpaddd %xmm2, %xmm6, %xmm7 vaesenclast %xmm3, %xmm14, %xmm14 vpaddd %xmm2, %xmm7, %xmm3 sub $6, %rdx add $96, %r14 cmp $0, %rdx jbe L126 movdqu %xmm9, -96(%rsi) vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm10, -80(%rsi) movdqu %xmm0, %xmm10 movdqu %xmm11, -64(%rsi) movdqu %xmm5, %xmm11 movdqu %xmm12, -48(%rsi) movdqu %xmm6, %xmm12 movdqu %xmm13, -32(%rsi) movdqu %xmm7, %xmm13 movdqu %xmm14, -16(%rsi) movdqu %xmm3, %xmm14 movdqu 32(%rbp), %xmm7 jmp L127 L126: vpxor 16(%rbp), %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 L127: .balign 16 L123: cmp $0, %rdx ja L122 movdqu 32(%rbp), %xmm7 movdqu %xmm1, 32(%rbp) pxor %xmm4, %xmm4 movdqu %xmm4, 16(%rbp) movdqu -32(%r9), %xmm3 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vpclmulqdq $16, %xmm3, %xmm7, %xmm5 movdqu 48(%rbp), %xmm0 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 movdqu -16(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 movdqu 16(%r9), %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vpxor %xmm5, %xmm6, %xmm6 vpxor %xmm1, %xmm6, %xmm6 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $3254779904, %rax pinsrd $3, %eax, %xmm3 vpxor %xmm8, %xmm7, %xmm7 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm0 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm0 movdqu %xmm9, -96(%rsi) vpshufb %xmm0, %xmm9, %xmm9 vpxor %xmm7, %xmm1, %xmm1 movdqu %xmm10, -80(%rsi) vpshufb %xmm0, %xmm10, %xmm10 movdqu %xmm11, -64(%rsi) vpshufb %xmm0, %xmm11, %xmm11 movdqu %xmm12, -48(%rsi) vpshufb %xmm0, %xmm12, %xmm12 movdqu %xmm13, -32(%rsi) vpshufb %xmm0, %xmm13, %xmm13 movdqu %xmm14, -16(%rsi) vpshufb %xmm0, %xmm14, %xmm14 pxor %xmm4, %xmm4 movdqu %xmm14, %xmm7 movdqu %xmm4, 16(%rbp) movdqu %xmm13, 48(%rbp) movdqu %xmm12, 64(%rbp) movdqu %xmm11, 80(%rbp) movdqu %xmm10, 96(%rbp) movdqu %xmm9, 112(%rbp) movdqu -32(%r9), %xmm3 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vpclmulqdq $16, %xmm3, %xmm7, %xmm5 movdqu 48(%rbp), %xmm0 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 movdqu -16(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 movdqu 16(%r9), %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vpxor %xmm5, %xmm6, %xmm6 vpxor %xmm1, %xmm6, %xmm6 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $3254779904, %rax pinsrd $3, %eax, %xmm3 vpxor %xmm8, %xmm7, %xmm7 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 sub $128, %rcx L117: movdqu 32(%rbp), %xmm11 mov %rcx, %r8 mov 104(%rsp), %rax mov 112(%rsp), %rdi mov 120(%rsp), %rdx mov %rdx, %r14 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm9 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm9 pshufb %xmm9, %xmm11 pxor %xmm10, %xmm10 mov $1, %rbx pinsrd $0, %ebx, %xmm10 mov %rax, %r11 mov %rdi, %r10 mov $0, %rbx jmp L129 .balign 16 L128: movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%r11), %xmm2 pxor %xmm0, %xmm2 movdqu %xmm2, 0(%r10) add $1, %rbx add $16, %r11 add $16, %r10 paddd %xmm10, %xmm11 .balign 16 L129: cmp %rdx, %rbx jne L128 mov %rdi, %r11 jmp L131 .balign 16 L130: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L131: cmp $6, %rdx jae L130 cmp $0, %rdx jbe L132 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L134 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L135 L134: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L136 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L138 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L140 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L141 L140: L141: jmp L139 L138: L139: jmp L137 L136: L137: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L135: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L133 L132: L133: add 96(%rsp), %r14 imul $16, %r14 mov 136(%rsp), %r13 cmp %r14, %r13 jbe L142 mov 128(%rsp), %rax mov %r13, %r10 and $15, %r10 movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%rax), %xmm4 pxor %xmm4, %xmm0 movdqu %xmm0, 0(%rax) cmp $8, %r10 jae L144 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L145 L144: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L145: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L143 L142: L143: mov %r15, %r11 pxor %xmm0, %xmm0 mov %r11, %rax imul $8, %rax pinsrq $1, %rax, %xmm0 mov %r13, %rax imul $8, %rax pinsrq $0, %rax, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu 0(%rbp), %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pshufb %xmm9, %xmm8 pxor %xmm0, %xmm8 mov 152(%rsp), %r15 movdqu %xmm8, 0(%r15) pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 ret .global _gcm128_decrypt_opt _gcm128_decrypt_opt: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx mov 144(%rsp), %rbp mov %rcx, %r13 lea 32(%r9), %r9 mov 72(%rsp), %rbx mov %rdx, %rcx imul $16, %rcx mov $579005069656919567, %r10 pinsrq $0, %r10, %xmm9 mov $283686952306183, %r10 pinsrq $1, %r10, %xmm9 pxor %xmm8, %xmm8 mov %rdi, %r11 jmp L147 .balign 16 L146: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L147: cmp $6, %rdx jae L146 cmp $0, %rdx jbe L148 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L150 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L151 L150: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L152 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L154 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L156 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L157 L156: L157: jmp L155 L154: L155: jmp L153 L152: L153: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L151: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L149 L148: L149: mov %rsi, %r15 cmp %rcx, %rsi jbe L158 movdqu 0(%rbx), %xmm0 mov %rsi, %r10 and $15, %r10 cmp $8, %r10 jae L160 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L161 L160: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L161: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L159 L158: L159: mov 80(%rsp), %rdi mov 88(%rsp), %rsi mov 96(%rsp), %rdx mov %r13, %rcx movdqu %xmm9, %xmm0 movdqu 0(%r8), %xmm1 movdqu %xmm1, 0(%rbp) pxor %xmm10, %xmm10 mov $1, %r11 pinsrq $0, %r11, %xmm10 vpaddd %xmm10, %xmm1, %xmm1 cmp $0, %rdx jne L162 vpshufb %xmm0, %xmm1, %xmm1 movdqu %xmm1, 32(%rbp) jmp L163 L162: movdqu %xmm8, 32(%rbp) add $128, %rcx pextrq $0, %xmm1, %rbx and $255, %rbx vpshufb %xmm0, %xmm1, %xmm1 lea 96(%rdi), %r14 movdqu 32(%rbp), %xmm8 movdqu 80(%rdi), %xmm7 movdqu 64(%rdi), %xmm4 movdqu 48(%rdi), %xmm5 movdqu 32(%rdi), %xmm6 vpshufb %xmm0, %xmm7, %xmm7 movdqu 16(%rdi), %xmm2 vpshufb %xmm0, %xmm4, %xmm4 movdqu 0(%rdi), %xmm3 vpshufb %xmm0, %xmm5, %xmm5 movdqu %xmm4, 48(%rbp) vpshufb %xmm0, %xmm6, %xmm6 movdqu %xmm5, 64(%rbp) vpshufb %xmm0, %xmm2, %xmm2 movdqu %xmm6, 80(%rbp) vpshufb %xmm0, %xmm3, %xmm3 movdqu %xmm2, 96(%rbp) movdqu %xmm3, 112(%rbp) pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vpxor %xmm4, %xmm4, %xmm4 movdqu -128(%rcx), %xmm15 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpaddd %xmm2, %xmm11, %xmm12 vpaddd %xmm2, %xmm12, %xmm13 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm4, 16(%rbp) cmp $6, %rdx jne L164 sub $96, %r14 jmp L165 L164: L165: jmp L167 .balign 16 L166: add $6, %rbx cmp $256, %rbx jb L168 mov $579005069656919567, %r11 pinsrq $0, %r11, %xmm0 mov $283686952306183, %r11 pinsrq $1, %r11, %xmm0 vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 movdqu -32(%r9), %xmm3 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm15, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm15, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpshufb %xmm0, %xmm14, %xmm14 vpshufb %xmm0, %xmm1, %xmm1 sub $256, %rbx jmp L169 L168: movdqu -32(%r9), %xmm3 vpaddd %xmm14, %xmm2, %xmm1 vpxor %xmm15, %xmm10, %xmm10 vpxor %xmm15, %xmm11, %xmm11 L169: movdqu %xmm1, 128(%rbp) vpclmulqdq $16, %xmm3, %xmm7, %xmm5 vpxor %xmm15, %xmm12, %xmm12 movdqu -112(%rcx), %xmm2 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vaesenc %xmm2, %xmm9, %xmm9 movdqu 48(%rbp), %xmm0 vpxor %xmm15, %xmm13, %xmm13 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vaesenc %xmm2, %xmm10, %xmm10 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 vaesenc %xmm2, %xmm11, %xmm11 movdqu -16(%r9), %xmm3 vaesenc %xmm2, %xmm12, %xmm12 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vaesenc %xmm2, %xmm13, %xmm13 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vaesenc %xmm2, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 vaesenc %xmm15, %xmm10, %xmm10 movbeq 88(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 80(%r14), %r12 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 32(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 40(%rbp) movdqu 16(%r9), %xmm5 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vaesenc %xmm15, %xmm11, %xmm11 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vaesenc %xmm15, %xmm10, %xmm10 movbeq 72(%r14), %r13 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 movbeq 64(%r14), %r12 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 48(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 56(%rbp) vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vaesenc %xmm15, %xmm10, %xmm10 movbeq 56(%r14), %r13 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vaesenc %xmm15, %xmm11, %xmm11 movbeq 48(%r14), %r12 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 64(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 72(%rbp) vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vaesenc %xmm15, %xmm10, %xmm10 movbeq 40(%r14), %r13 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 movbeq 32(%r14), %r12 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 80(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 88(%rbp) vpxor %xmm5, %xmm6, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor %xmm1, %xmm6, %xmm6 movdqu -16(%rcx), %xmm15 vpslldq $8, %xmm6, %xmm5 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $13979173243358019584, %r11 pinsrq $1, %r11, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm8, %xmm7, %xmm7 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm5, %xmm4, %xmm4 movbeq 24(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 16(%r14), %r12 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 movq %r13, 96(%rbp) vaesenc %xmm15, %xmm12, %xmm12 movq %r12, 104(%rbp) vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm1 vaesenc %xmm1, %xmm9, %xmm9 movdqu 16(%rcx), %xmm15 vaesenc %xmm1, %xmm10, %xmm10 vpsrldq $8, %xmm6, %xmm6 vaesenc %xmm1, %xmm11, %xmm11 vpxor %xmm6, %xmm7, %xmm7 vaesenc %xmm1, %xmm12, %xmm12 vpxor %xmm0, %xmm4, %xmm4 movbeq 8(%r14), %r13 vaesenc %xmm1, %xmm13, %xmm13 movbeq 0(%r14), %r12 vaesenc %xmm1, %xmm14, %xmm14 movdqu 32(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 movdqu %xmm7, 16(%rbp) vpalignr $8, %xmm4, %xmm4, %xmm8 vaesenc %xmm15, %xmm10, %xmm10 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor 0(%rdi), %xmm1, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 vpxor 16(%rdi), %xmm1, %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vpxor 32(%rdi), %xmm1, %xmm5 vaesenc %xmm15, %xmm13, %xmm13 vpxor 48(%rdi), %xmm1, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor 64(%rdi), %xmm1, %xmm7 vpxor 80(%rdi), %xmm1, %xmm3 movdqu 128(%rbp), %xmm1 vaesenclast %xmm2, %xmm9, %xmm9 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vaesenclast %xmm0, %xmm10, %xmm10 vpaddd %xmm2, %xmm1, %xmm0 movq %r13, 112(%rbp) lea 96(%rdi), %rdi vaesenclast %xmm5, %xmm11, %xmm11 vpaddd %xmm2, %xmm0, %xmm5 movq %r12, 120(%rbp) lea 96(%rsi), %rsi movdqu -128(%rcx), %xmm15 vaesenclast %xmm6, %xmm12, %xmm12 vpaddd %xmm2, %xmm5, %xmm6 vaesenclast %xmm7, %xmm13, %xmm13 vpaddd %xmm2, %xmm6, %xmm7 vaesenclast %xmm3, %xmm14, %xmm14 vpaddd %xmm2, %xmm7, %xmm3 sub $6, %rdx cmp $6, %rdx jbe L170 add $96, %r14 jmp L171 L170: L171: cmp $0, %rdx jbe L172 movdqu %xmm9, -96(%rsi) vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm10, -80(%rsi) movdqu %xmm0, %xmm10 movdqu %xmm11, -64(%rsi) movdqu %xmm5, %xmm11 movdqu %xmm12, -48(%rsi) movdqu %xmm6, %xmm12 movdqu %xmm13, -32(%rsi) movdqu %xmm7, %xmm13 movdqu %xmm14, -16(%rsi) movdqu %xmm3, %xmm14 movdqu 32(%rbp), %xmm7 jmp L173 L172: vpxor 16(%rbp), %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 L173: .balign 16 L167: cmp $0, %rdx ja L166 movdqu %xmm1, 32(%rbp) movdqu %xmm9, -96(%rsi) movdqu %xmm10, -80(%rsi) movdqu %xmm11, -64(%rsi) movdqu %xmm12, -48(%rsi) movdqu %xmm13, -32(%rsi) movdqu %xmm14, -16(%rsi) sub $128, %rcx L163: movdqu 32(%rbp), %xmm11 mov %rcx, %r8 mov 104(%rsp), %rax mov 112(%rsp), %rdi mov 120(%rsp), %rdx mov %rdx, %r14 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm9 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm9 pshufb %xmm9, %xmm11 mov %rdi, %rbx mov %rdx, %r12 mov %rax, %rdi mov %rdi, %r11 jmp L175 .balign 16 L174: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L175: cmp $6, %rdx jae L174 cmp $0, %rdx jbe L176 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L178 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L179 L178: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L180 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L182 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L184 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L185 L184: L185: jmp L183 L182: L183: jmp L181 L180: L181: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L179: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L177 L176: L177: mov %rbx, %rdi mov %r12, %rdx pxor %xmm10, %xmm10 mov $1, %rbx pinsrd $0, %ebx, %xmm10 mov %rax, %r11 mov %rdi, %r10 mov $0, %rbx jmp L187 .balign 16 L186: movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%r11), %xmm2 pxor %xmm0, %xmm2 movdqu %xmm2, 0(%r10) add $1, %rbx add $16, %r11 add $16, %r10 paddd %xmm10, %xmm11 .balign 16 L187: cmp %rdx, %rbx jne L186 add 96(%rsp), %r14 imul $16, %r14 mov 136(%rsp), %r13 cmp %r14, %r13 jbe L188 mov 128(%rsp), %rax mov %r13, %r10 and $15, %r10 movdqu 0(%rax), %xmm0 movdqu %xmm0, %xmm10 cmp $8, %r10 jae L190 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L191 L190: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L191: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pxor %xmm0, %xmm10 movdqu %xmm10, 0(%rax) jmp L189 L188: L189: mov %r15, %r11 pxor %xmm0, %xmm0 mov %r11, %rax imul $8, %rax pinsrq $1, %rax, %xmm0 mov %r13, %rax imul $8, %rax pinsrq $0, %rax, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu 0(%rbp), %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pshufb %xmm9, %xmm8 pxor %xmm0, %xmm8 mov 152(%rsp), %r15 movdqu 0(%r15), %xmm0 pcmpeqd %xmm8, %xmm0 pextrq $0, %xmm0, %rdx sub $18446744073709551615, %rdx mov $0, %rax adc $0, %rax pextrq $1, %xmm0, %rdx sub $18446744073709551615, %rdx mov $0, %rdx adc $0, %rdx add %rdx, %rax mov %rax, %rcx pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 mov %rcx, %rax ret .global _gcm256_decrypt_opt _gcm256_decrypt_opt: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx mov 144(%rsp), %rbp mov %rcx, %r13 lea 32(%r9), %r9 mov 72(%rsp), %rbx mov %rdx, %rcx imul $16, %rcx mov $579005069656919567, %r10 pinsrq $0, %r10, %xmm9 mov $283686952306183, %r10 pinsrq $1, %r10, %xmm9 pxor %xmm8, %xmm8 mov %rdi, %r11 jmp L193 .balign 16 L192: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L193: cmp $6, %rdx jae L192 cmp $0, %rdx jbe L194 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L196 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L197 L196: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L198 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L200 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L202 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L203 L202: L203: jmp L201 L200: L201: jmp L199 L198: L199: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L197: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L195 L194: L195: mov %rsi, %r15 cmp %rcx, %rsi jbe L204 movdqu 0(%rbx), %xmm0 mov %rsi, %r10 and $15, %r10 cmp $8, %r10 jae L206 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L207 L206: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L207: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L205 L204: L205: mov 80(%rsp), %rdi mov 88(%rsp), %rsi mov 96(%rsp), %rdx mov %r13, %rcx movdqu %xmm9, %xmm0 movdqu 0(%r8), %xmm1 movdqu %xmm1, 0(%rbp) pxor %xmm10, %xmm10 mov $1, %r11 pinsrq $0, %r11, %xmm10 vpaddd %xmm10, %xmm1, %xmm1 cmp $0, %rdx jne L208 vpshufb %xmm0, %xmm1, %xmm1 movdqu %xmm1, 32(%rbp) jmp L209 L208: movdqu %xmm8, 32(%rbp) add $128, %rcx pextrq $0, %xmm1, %rbx and $255, %rbx vpshufb %xmm0, %xmm1, %xmm1 lea 96(%rdi), %r14 movdqu 32(%rbp), %xmm8 movdqu 80(%rdi), %xmm7 movdqu 64(%rdi), %xmm4 movdqu 48(%rdi), %xmm5 movdqu 32(%rdi), %xmm6 vpshufb %xmm0, %xmm7, %xmm7 movdqu 16(%rdi), %xmm2 vpshufb %xmm0, %xmm4, %xmm4 movdqu 0(%rdi), %xmm3 vpshufb %xmm0, %xmm5, %xmm5 movdqu %xmm4, 48(%rbp) vpshufb %xmm0, %xmm6, %xmm6 movdqu %xmm5, 64(%rbp) vpshufb %xmm0, %xmm2, %xmm2 movdqu %xmm6, 80(%rbp) vpshufb %xmm0, %xmm3, %xmm3 movdqu %xmm2, 96(%rbp) movdqu %xmm3, 112(%rbp) pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vpxor %xmm4, %xmm4, %xmm4 movdqu -128(%rcx), %xmm15 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpaddd %xmm2, %xmm11, %xmm12 vpaddd %xmm2, %xmm12, %xmm13 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm4, 16(%rbp) cmp $6, %rdx jne L210 sub $96, %r14 jmp L211 L210: L211: jmp L213 .balign 16 L212: add $6, %rbx cmp $256, %rbx jb L214 mov $579005069656919567, %r11 pinsrq $0, %r11, %xmm0 mov $283686952306183, %r11 pinsrq $1, %r11, %xmm0 vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 movdqu -32(%r9), %xmm3 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm15, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm15, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpshufb %xmm0, %xmm14, %xmm14 vpshufb %xmm0, %xmm1, %xmm1 sub $256, %rbx jmp L215 L214: movdqu -32(%r9), %xmm3 vpaddd %xmm14, %xmm2, %xmm1 vpxor %xmm15, %xmm10, %xmm10 vpxor %xmm15, %xmm11, %xmm11 L215: movdqu %xmm1, 128(%rbp) vpclmulqdq $16, %xmm3, %xmm7, %xmm5 vpxor %xmm15, %xmm12, %xmm12 movdqu -112(%rcx), %xmm2 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vaesenc %xmm2, %xmm9, %xmm9 movdqu 48(%rbp), %xmm0 vpxor %xmm15, %xmm13, %xmm13 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vaesenc %xmm2, %xmm10, %xmm10 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 vaesenc %xmm2, %xmm11, %xmm11 movdqu -16(%r9), %xmm3 vaesenc %xmm2, %xmm12, %xmm12 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vaesenc %xmm2, %xmm13, %xmm13 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vaesenc %xmm2, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 vaesenc %xmm15, %xmm10, %xmm10 movbeq 88(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 80(%r14), %r12 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 32(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 40(%rbp) movdqu 16(%r9), %xmm5 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vaesenc %xmm15, %xmm11, %xmm11 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vaesenc %xmm15, %xmm10, %xmm10 movbeq 72(%r14), %r13 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 movbeq 64(%r14), %r12 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 48(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 56(%rbp) vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vaesenc %xmm15, %xmm10, %xmm10 movbeq 56(%r14), %r13 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vaesenc %xmm15, %xmm11, %xmm11 movbeq 48(%r14), %r12 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 64(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 72(%rbp) vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vaesenc %xmm15, %xmm10, %xmm10 movbeq 40(%r14), %r13 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 movbeq 32(%r14), %r12 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 80(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 88(%rbp) vpxor %xmm5, %xmm6, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor %xmm1, %xmm6, %xmm6 movdqu -16(%rcx), %xmm15 vpslldq $8, %xmm6, %xmm5 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $13979173243358019584, %r11 pinsrq $1, %r11, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm8, %xmm7, %xmm7 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm5, %xmm4, %xmm4 movbeq 24(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 16(%r14), %r12 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 movq %r13, 96(%rbp) vaesenc %xmm15, %xmm12, %xmm12 movq %r12, 104(%rbp) vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm1 vaesenc %xmm1, %xmm9, %xmm9 movdqu 16(%rcx), %xmm15 vaesenc %xmm1, %xmm10, %xmm10 vpsrldq $8, %xmm6, %xmm6 vaesenc %xmm1, %xmm11, %xmm11 vpxor %xmm6, %xmm7, %xmm7 vaesenc %xmm1, %xmm12, %xmm12 vpxor %xmm0, %xmm4, %xmm4 movbeq 8(%r14), %r13 vaesenc %xmm1, %xmm13, %xmm13 movbeq 0(%r14), %r12 vaesenc %xmm1, %xmm14, %xmm14 movdqu 32(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 vaesenc %xmm1, %xmm9, %xmm9 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm1, %xmm13, %xmm13 movdqu 48(%rcx), %xmm15 vaesenc %xmm1, %xmm14, %xmm14 movdqu 64(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 vaesenc %xmm1, %xmm9, %xmm9 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm1, %xmm13, %xmm13 movdqu 80(%rcx), %xmm15 vaesenc %xmm1, %xmm14, %xmm14 movdqu 96(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 movdqu %xmm7, 16(%rbp) vpalignr $8, %xmm4, %xmm4, %xmm8 vaesenc %xmm15, %xmm10, %xmm10 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor 0(%rdi), %xmm1, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 vpxor 16(%rdi), %xmm1, %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vpxor 32(%rdi), %xmm1, %xmm5 vaesenc %xmm15, %xmm13, %xmm13 vpxor 48(%rdi), %xmm1, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor 64(%rdi), %xmm1, %xmm7 vpxor 80(%rdi), %xmm1, %xmm3 movdqu 128(%rbp), %xmm1 vaesenclast %xmm2, %xmm9, %xmm9 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vaesenclast %xmm0, %xmm10, %xmm10 vpaddd %xmm2, %xmm1, %xmm0 movq %r13, 112(%rbp) lea 96(%rdi), %rdi vaesenclast %xmm5, %xmm11, %xmm11 vpaddd %xmm2, %xmm0, %xmm5 movq %r12, 120(%rbp) lea 96(%rsi), %rsi movdqu -128(%rcx), %xmm15 vaesenclast %xmm6, %xmm12, %xmm12 vpaddd %xmm2, %xmm5, %xmm6 vaesenclast %xmm7, %xmm13, %xmm13 vpaddd %xmm2, %xmm6, %xmm7 vaesenclast %xmm3, %xmm14, %xmm14 vpaddd %xmm2, %xmm7, %xmm3 sub $6, %rdx cmp $6, %rdx jbe L216 add $96, %r14 jmp L217 L216: L217: cmp $0, %rdx jbe L218 movdqu %xmm9, -96(%rsi) vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm10, -80(%rsi) movdqu %xmm0, %xmm10 movdqu %xmm11, -64(%rsi) movdqu %xmm5, %xmm11 movdqu %xmm12, -48(%rsi) movdqu %xmm6, %xmm12 movdqu %xmm13, -32(%rsi) movdqu %xmm7, %xmm13 movdqu %xmm14, -16(%rsi) movdqu %xmm3, %xmm14 movdqu 32(%rbp), %xmm7 jmp L219 L218: vpxor 16(%rbp), %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 L219: .balign 16 L213: cmp $0, %rdx ja L212 movdqu %xmm1, 32(%rbp) movdqu %xmm9, -96(%rsi) movdqu %xmm10, -80(%rsi) movdqu %xmm11, -64(%rsi) movdqu %xmm12, -48(%rsi) movdqu %xmm13, -32(%rsi) movdqu %xmm14, -16(%rsi) sub $128, %rcx L209: movdqu 32(%rbp), %xmm11 mov %rcx, %r8 mov 104(%rsp), %rax mov 112(%rsp), %rdi mov 120(%rsp), %rdx mov %rdx, %r14 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm9 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm9 pshufb %xmm9, %xmm11 mov %rdi, %rbx mov %rdx, %r12 mov %rax, %rdi mov %rdi, %r11 jmp L221 .balign 16 L220: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L221: cmp $6, %rdx jae L220 cmp $0, %rdx jbe L222 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L224 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L225 L224: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L226 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L228 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L230 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L231 L230: L231: jmp L229 L228: L229: jmp L227 L226: L227: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L225: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L223 L222: L223: mov %rbx, %rdi mov %r12, %rdx pxor %xmm10, %xmm10 mov $1, %rbx pinsrd $0, %ebx, %xmm10 mov %rax, %r11 mov %rdi, %r10 mov $0, %rbx jmp L233 .balign 16 L232: movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%r11), %xmm2 pxor %xmm0, %xmm2 movdqu %xmm2, 0(%r10) add $1, %rbx add $16, %r11 add $16, %r10 paddd %xmm10, %xmm11 .balign 16 L233: cmp %rdx, %rbx jne L232 add 96(%rsp), %r14 imul $16, %r14 mov 136(%rsp), %r13 cmp %r14, %r13 jbe L234 mov 128(%rsp), %rax mov %r13, %r10 and $15, %r10 movdqu 0(%rax), %xmm0 movdqu %xmm0, %xmm10 cmp $8, %r10 jae L236 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L237 L236: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L237: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pxor %xmm0, %xmm10 movdqu %xmm10, 0(%rax) jmp L235 L234: L235: mov %r15, %r11 pxor %xmm0, %xmm0 mov %r11, %rax imul $8, %rax pinsrq $1, %rax, %xmm0 mov %r13, %rax imul $8, %rax pinsrq $0, %rax, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu 0(%rbp), %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pshufb %xmm9, %xmm8 pxor %xmm0, %xmm8 mov 152(%rsp), %r15 movdqu 0(%r15), %xmm0 pcmpeqd %xmm8, %xmm0 pextrq $0, %xmm0, %rdx sub $18446744073709551615, %rdx mov $0, %rax adc $0, %rax pextrq $1, %xmm0, %rdx sub $18446744073709551615, %rdx mov $0, %rdx adc $0, %rdx add %rdx, %rax mov %rax, %rcx pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 mov %rcx, %rax ret
verdict-x509/verdict
2,368
deps/libcrux/sys/hacl/c/vale/src/cpuid-x86_64-darwin.S
.text .global _check_aesni _check_aesni: mov %rbx, %r9 mov $0, %rcx mov $1, %rax cpuid mov %rcx, %rax and $33554432, %rax shr $24, %rax and $2, %rcx and %rcx, %rax mov %r9, %rbx ret .global _check_sha _check_sha: mov %rbx, %r9 mov $7, %rax mov $0, %rcx cpuid and $536870912, %rbx mov %rbx, %rax mov %r9, %rbx ret .global _check_adx_bmi2 _check_adx_bmi2: mov %rbx, %r9 mov $7, %rax mov $0, %rcx cpuid mov %rbx, %rax and $524288, %rax shr $11, %rax and $256, %rbx and %rbx, %rax mov %r9, %rbx ret .global _check_avx _check_avx: mov %rbx, %r9 mov $0, %rcx mov $1, %rax cpuid mov %rcx, %rax and $268435456, %rax shr $27, %rax mov %r9, %rbx ret .global _check_avx2 _check_avx2: mov %rbx, %r9 mov $7, %rax mov $0, %rcx cpuid and $32, %rbx mov %rbx, %rax mov %r9, %rbx ret .global _check_movbe _check_movbe: mov %rbx, %r9 mov $0, %rcx mov $1, %rax cpuid mov %rcx, %rax and $4194304, %rax shr $21, %rax mov %r9, %rbx ret .global _check_sse _check_sse: mov %rbx, %r9 mov $0, %rcx mov $1, %rax cpuid mov %rcx, %rax and $524288, %rax and $512, %rcx and $67108864, %rdx shr $10, %rax shr $17, %rdx and %rdx, %rax and %rcx, %rax mov %r9, %rbx ret .global _check_rdrand _check_rdrand: mov %rbx, %r9 mov $0, %rcx mov $1, %rax cpuid mov %rcx, %rax and $1073741824, %rax shr $29, %rax mov %r9, %rbx ret .global _check_avx512 _check_avx512: mov %rbx, %r9 mov $7, %rax mov $0, %rcx cpuid mov %rbx, %rax mov %rbx, %r10 mov %rbx, %r11 and $65536, %rbx and $131072, %rax and $1073741824, %r10 shr $1, %rax shr $14, %r10 and %rbx, %rax mov $2147483648, %rbx and %rbx, %r11 shr $15, %r11 and %r10, %rax and %r11, %rax mov %r9, %rbx ret .global _check_osxsave _check_osxsave: mov %rbx, %r9 mov $0, %rcx mov $1, %rax cpuid mov %rcx, %rax and $134217728, %rax shr $26, %rax mov %r9, %rbx ret .global _check_avx_xcr0 _check_avx_xcr0: mov $0, %rcx xgetbv mov %rax, %rcx and $4, %rax shr $1, %rax and $2, %rcx and %rcx, %rax ret .global _check_avx512_xcr0 _check_avx512_xcr0: mov $0, %rcx xgetbv mov %rax, %rcx mov %rax, %rdx and $32, %rax and $64, %rcx and $128, %rdx shr $2, %rdx shr $1, %rcx and %rdx, %rax and %rcx, %rax ret
verdict-x509/verdict
199,579
deps/libcrux/sys/hacl/c/vale/src/aesgcm-x86_64-linux.S
.text .global aes128_key_expansion aes128_key_expansion: movdqu 0(%rdi), %xmm1 mov %rsi, %rdx movdqu %xmm1, 0(%rdx) aeskeygenassist $1, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 16(%rdx) aeskeygenassist $2, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 32(%rdx) aeskeygenassist $4, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 48(%rdx) aeskeygenassist $8, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 64(%rdx) aeskeygenassist $16, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 80(%rdx) aeskeygenassist $32, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 96(%rdx) aeskeygenassist $64, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 112(%rdx) aeskeygenassist $128, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 128(%rdx) aeskeygenassist $27, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 144(%rdx) aeskeygenassist $54, %xmm1, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 vpslldq $4, %xmm1, %xmm3 pxor %xmm3, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 160(%rdx) pxor %xmm1, %xmm1 pxor %xmm2, %xmm2 pxor %xmm3, %xmm3 ret .global aes128_keyhash_init aes128_keyhash_init: mov $579005069656919567, %r8 pinsrq $0, %r8, %xmm4 mov $283686952306183, %r8 pinsrq $1, %r8, %xmm4 pxor %xmm0, %xmm0 movdqu %xmm0, 80(%rsi) mov %rdi, %r8 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pshufb %xmm4, %xmm0 mov %rsi, %rcx movdqu %xmm0, 32(%rcx) movdqu %xmm6, %xmm0 mov %r12, %rax movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 0(%rcx) movdqu %xmm6, %xmm1 movdqu %xmm6, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 16(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 48(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 64(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 96(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 112(%rcx) movdqu %xmm0, %xmm6 mov %rax, %r12 ret .global aes256_key_expansion aes256_key_expansion: movdqu 0(%rdi), %xmm1 movdqu 16(%rdi), %xmm3 mov %rsi, %rdx movdqu %xmm1, 0(%rdx) movdqu %xmm3, 16(%rdx) aeskeygenassist $1, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 32(%rdx) aeskeygenassist $0, %xmm1, %xmm2 pshufd $170, %xmm2, %xmm2 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 pxor %xmm2, %xmm3 movdqu %xmm3, 48(%rdx) aeskeygenassist $2, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 64(%rdx) aeskeygenassist $0, %xmm1, %xmm2 pshufd $170, %xmm2, %xmm2 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 pxor %xmm2, %xmm3 movdqu %xmm3, 80(%rdx) aeskeygenassist $4, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 96(%rdx) aeskeygenassist $0, %xmm1, %xmm2 pshufd $170, %xmm2, %xmm2 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 pxor %xmm2, %xmm3 movdqu %xmm3, 112(%rdx) aeskeygenassist $8, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 128(%rdx) aeskeygenassist $0, %xmm1, %xmm2 pshufd $170, %xmm2, %xmm2 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 pxor %xmm2, %xmm3 movdqu %xmm3, 144(%rdx) aeskeygenassist $16, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 160(%rdx) aeskeygenassist $0, %xmm1, %xmm2 pshufd $170, %xmm2, %xmm2 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 pxor %xmm2, %xmm3 movdqu %xmm3, 176(%rdx) aeskeygenassist $32, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 192(%rdx) aeskeygenassist $0, %xmm1, %xmm2 pshufd $170, %xmm2, %xmm2 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 vpslldq $4, %xmm3, %xmm4 pxor %xmm4, %xmm3 pxor %xmm2, %xmm3 movdqu %xmm3, 208(%rdx) aeskeygenassist $64, %xmm3, %xmm2 pshufd $255, %xmm2, %xmm2 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 vpslldq $4, %xmm1, %xmm4 pxor %xmm4, %xmm1 pxor %xmm2, %xmm1 movdqu %xmm1, 224(%rdx) pxor %xmm1, %xmm1 pxor %xmm2, %xmm2 pxor %xmm3, %xmm3 pxor %xmm4, %xmm4 ret .global aes256_keyhash_init aes256_keyhash_init: mov $579005069656919567, %r8 pinsrq $0, %r8, %xmm4 mov $283686952306183, %r8 pinsrq $1, %r8, %xmm4 pxor %xmm0, %xmm0 movdqu %xmm0, 80(%rsi) mov %rdi, %r8 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pshufb %xmm4, %xmm0 mov %rsi, %rcx movdqu %xmm0, 32(%rcx) movdqu %xmm6, %xmm0 mov %r12, %rax movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 0(%rcx) movdqu %xmm6, %xmm1 movdqu %xmm6, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 16(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 48(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 64(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 96(%rcx) movdqu %xmm6, %xmm2 movdqu 32(%rcx), %xmm1 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm6 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 movdqu %xmm1, %xmm5 pclmulqdq $16, %xmm2, %xmm1 movdqu %xmm1, %xmm3 movdqu %xmm5, %xmm1 pclmulqdq $1, %xmm2, %xmm1 movdqu %xmm1, %xmm4 movdqu %xmm5, %xmm1 pclmulqdq $0, %xmm2, %xmm1 pclmulqdq $17, %xmm2, %xmm5 movdqu %xmm5, %xmm2 movdqu %xmm1, %xmm5 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm4, %xmm1 mov $0, %r12 pinsrd $0, %r12d, %xmm1 pshufd $14, %xmm1, %xmm1 pxor %xmm1, %xmm2 movdqu %xmm3, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm1 pshufd $79, %xmm1, %xmm1 mov $0, %r12 pinsrd $3, %r12d, %xmm4 pshufd $79, %xmm4, %xmm4 pxor %xmm4, %xmm1 pxor %xmm5, %xmm1 movdqu %xmm1, %xmm3 psrld $31, %xmm3 movdqu %xmm2, %xmm4 psrld $31, %xmm4 pslld $1, %xmm1 pslld $1, %xmm2 vpslldq $4, %xmm3, %xmm5 vpslldq $4, %xmm4, %xmm4 mov $0, %r12 pinsrd $0, %r12d, %xmm3 pshufd $3, %xmm3, %xmm3 pxor %xmm4, %xmm3 pxor %xmm5, %xmm1 pxor %xmm3, %xmm2 movdqu %xmm2, %xmm5 pxor %xmm2, %xmm2 mov $3774873600, %r12 pinsrd $3, %r12d, %xmm2 pclmulqdq $17, %xmm2, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pxor %xmm5, %xmm1 pxor %xmm6, %xmm1 movdqu %xmm1, %xmm6 movdqu %xmm1, %xmm3 pxor %xmm4, %xmm4 pxor %xmm5, %xmm5 mov $3254779904, %r12 pinsrd $3, %r12d, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 mov $2147483648, %r12 pinsrd $3, %r12d, %xmm5 movdqu %xmm3, %xmm1 movdqu %xmm1, %xmm2 psrld $31, %xmm2 pslld $1, %xmm1 vpslldq $4, %xmm2, %xmm2 pxor %xmm2, %xmm1 pand %xmm5, %xmm3 pcmpeqd %xmm5, %xmm3 pshufd $255, %xmm3, %xmm3 pand %xmm4, %xmm3 vpxor %xmm3, %xmm1, %xmm1 movdqu %xmm1, 112(%rcx) movdqu %xmm0, %xmm6 mov %rax, %r12 ret .global gctr128_bytes gctr128_bytes: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx movdqu 0(%r9), %xmm7 mov %rdi, %rax mov %rdx, %rbx mov %rcx, %r13 mov 72(%rsp), %rcx mov %rcx, %rbp imul $16, %rbp mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm8 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm8 mov %rcx, %rdx shr $2, %rdx and $3, %rcx cmp $0, %rdx jbe L0 mov %rax, %r9 mov %rbx, %r10 pshufb %xmm8, %xmm7 movdqu %xmm7, %xmm9 mov $579005069656919567, %rax pinsrq $0, %rax, %xmm0 mov $579005069656919567, %rax pinsrq $1, %rax, %xmm0 pshufb %xmm0, %xmm9 movdqu %xmm9, %xmm10 pxor %xmm3, %xmm3 mov $1, %rax pinsrd $2, %eax, %xmm3 paddd %xmm3, %xmm9 mov $3, %rax pinsrd $2, %eax, %xmm3 mov $2, %rax pinsrd $0, %eax, %xmm3 paddd %xmm3, %xmm10 pshufb %xmm8, %xmm9 pshufb %xmm8, %xmm10 pextrq $0, %xmm7, %rdi mov $283686952306183, %rax pinsrq $0, %rax, %xmm0 mov $579005069656919567, %rax pinsrq $1, %rax, %xmm0 pxor %xmm15, %xmm15 mov $4, %rax pinsrd $0, %eax, %xmm15 mov $4, %rax pinsrd $2, %eax, %xmm15 jmp L3 .balign 16 L2: pinsrq $0, %rdi, %xmm2 pinsrq $0, %rdi, %xmm12 pinsrq $0, %rdi, %xmm13 pinsrq $0, %rdi, %xmm14 shufpd $2, %xmm9, %xmm2 shufpd $0, %xmm9, %xmm12 shufpd $2, %xmm10, %xmm13 shufpd $0, %xmm10, %xmm14 pshufb %xmm0, %xmm9 pshufb %xmm0, %xmm10 movdqu 0(%r8), %xmm3 movdqu 16(%r8), %xmm4 movdqu 32(%r8), %xmm5 movdqu 48(%r8), %xmm6 paddd %xmm15, %xmm9 paddd %xmm15, %xmm10 pxor %xmm3, %xmm2 pxor %xmm3, %xmm12 pxor %xmm3, %xmm13 pxor %xmm3, %xmm14 pshufb %xmm0, %xmm9 pshufb %xmm0, %xmm10 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 aesenc %xmm5, %xmm2 aesenc %xmm5, %xmm12 aesenc %xmm5, %xmm13 aesenc %xmm5, %xmm14 aesenc %xmm6, %xmm2 aesenc %xmm6, %xmm12 aesenc %xmm6, %xmm13 aesenc %xmm6, %xmm14 movdqu 64(%r8), %xmm3 movdqu 80(%r8), %xmm4 movdqu 96(%r8), %xmm5 movdqu 112(%r8), %xmm6 aesenc %xmm3, %xmm2 aesenc %xmm3, %xmm12 aesenc %xmm3, %xmm13 aesenc %xmm3, %xmm14 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 aesenc %xmm5, %xmm2 aesenc %xmm5, %xmm12 aesenc %xmm5, %xmm13 aesenc %xmm5, %xmm14 aesenc %xmm6, %xmm2 aesenc %xmm6, %xmm12 aesenc %xmm6, %xmm13 aesenc %xmm6, %xmm14 movdqu 128(%r8), %xmm3 movdqu 144(%r8), %xmm4 movdqu 160(%r8), %xmm5 aesenc %xmm3, %xmm2 aesenc %xmm3, %xmm12 aesenc %xmm3, %xmm13 aesenc %xmm3, %xmm14 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 aesenclast %xmm5, %xmm2 aesenclast %xmm5, %xmm12 aesenclast %xmm5, %xmm13 aesenclast %xmm5, %xmm14 movdqu 0(%r9), %xmm7 pxor %xmm7, %xmm2 movdqu 16(%r9), %xmm7 pxor %xmm7, %xmm12 movdqu 32(%r9), %xmm7 pxor %xmm7, %xmm13 movdqu 48(%r9), %xmm7 pxor %xmm7, %xmm14 movdqu %xmm2, 0(%r10) movdqu %xmm12, 16(%r10) movdqu %xmm13, 32(%r10) movdqu %xmm14, 48(%r10) sub $1, %rdx add $64, %r9 add $64, %r10 .balign 16 L3: cmp $0, %rdx ja L2 movdqu %xmm9, %xmm7 pinsrq $0, %rdi, %xmm7 pshufb %xmm8, %xmm7 mov %r9, %rax mov %r10, %rbx jmp L1 L0: L1: mov $0, %rdx mov %rax, %r9 mov %rbx, %r10 pxor %xmm4, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 jmp L5 .balign 16 L4: movdqu %xmm7, %xmm0 pshufb %xmm8, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%r9), %xmm2 pxor %xmm0, %xmm2 movdqu %xmm2, 0(%r10) add $1, %rdx add $16, %r9 add $16, %r10 paddd %xmm4, %xmm7 .balign 16 L5: cmp %rcx, %rdx jne L4 cmp %rbp, %rsi jbe L6 movdqu 0(%r13), %xmm1 movdqu %xmm7, %xmm0 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm2 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm2 pshufb %xmm2, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pxor %xmm0, %xmm1 movdqu %xmm1, 0(%r13) jmp L7 L6: L7: pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 ret .global gctr256_bytes gctr256_bytes: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx movdqu 0(%r9), %xmm7 mov %rdi, %rax mov %rdx, %rbx mov %rcx, %r13 mov 72(%rsp), %rcx mov %rcx, %rbp imul $16, %rbp mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm8 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm8 mov %rcx, %rdx shr $2, %rdx and $3, %rcx cmp $0, %rdx jbe L8 mov %rax, %r9 mov %rbx, %r10 pshufb %xmm8, %xmm7 movdqu %xmm7, %xmm9 mov $579005069656919567, %rax pinsrq $0, %rax, %xmm0 mov $579005069656919567, %rax pinsrq $1, %rax, %xmm0 pshufb %xmm0, %xmm9 movdqu %xmm9, %xmm10 pxor %xmm3, %xmm3 mov $1, %rax pinsrd $2, %eax, %xmm3 paddd %xmm3, %xmm9 mov $3, %rax pinsrd $2, %eax, %xmm3 mov $2, %rax pinsrd $0, %eax, %xmm3 paddd %xmm3, %xmm10 pshufb %xmm8, %xmm9 pshufb %xmm8, %xmm10 pextrq $0, %xmm7, %rdi mov $283686952306183, %rax pinsrq $0, %rax, %xmm0 mov $579005069656919567, %rax pinsrq $1, %rax, %xmm0 pxor %xmm15, %xmm15 mov $4, %rax pinsrd $0, %eax, %xmm15 mov $4, %rax pinsrd $2, %eax, %xmm15 jmp L11 .balign 16 L10: pinsrq $0, %rdi, %xmm2 pinsrq $0, %rdi, %xmm12 pinsrq $0, %rdi, %xmm13 pinsrq $0, %rdi, %xmm14 shufpd $2, %xmm9, %xmm2 shufpd $0, %xmm9, %xmm12 shufpd $2, %xmm10, %xmm13 shufpd $0, %xmm10, %xmm14 pshufb %xmm0, %xmm9 pshufb %xmm0, %xmm10 movdqu 0(%r8), %xmm3 movdqu 16(%r8), %xmm4 movdqu 32(%r8), %xmm5 movdqu 48(%r8), %xmm6 paddd %xmm15, %xmm9 paddd %xmm15, %xmm10 pxor %xmm3, %xmm2 pxor %xmm3, %xmm12 pxor %xmm3, %xmm13 pxor %xmm3, %xmm14 pshufb %xmm0, %xmm9 pshufb %xmm0, %xmm10 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 aesenc %xmm5, %xmm2 aesenc %xmm5, %xmm12 aesenc %xmm5, %xmm13 aesenc %xmm5, %xmm14 aesenc %xmm6, %xmm2 aesenc %xmm6, %xmm12 aesenc %xmm6, %xmm13 aesenc %xmm6, %xmm14 movdqu 64(%r8), %xmm3 movdqu 80(%r8), %xmm4 movdqu 96(%r8), %xmm5 movdqu 112(%r8), %xmm6 aesenc %xmm3, %xmm2 aesenc %xmm3, %xmm12 aesenc %xmm3, %xmm13 aesenc %xmm3, %xmm14 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 aesenc %xmm5, %xmm2 aesenc %xmm5, %xmm12 aesenc %xmm5, %xmm13 aesenc %xmm5, %xmm14 aesenc %xmm6, %xmm2 aesenc %xmm6, %xmm12 aesenc %xmm6, %xmm13 aesenc %xmm6, %xmm14 movdqu 128(%r8), %xmm3 movdqu 144(%r8), %xmm4 movdqu 160(%r8), %xmm5 aesenc %xmm3, %xmm2 aesenc %xmm3, %xmm12 aesenc %xmm3, %xmm13 aesenc %xmm3, %xmm14 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 movdqu %xmm5, %xmm3 movdqu 176(%r8), %xmm4 movdqu 192(%r8), %xmm5 movdqu 208(%r8), %xmm6 aesenc %xmm3, %xmm2 aesenc %xmm3, %xmm12 aesenc %xmm3, %xmm13 aesenc %xmm3, %xmm14 aesenc %xmm4, %xmm2 aesenc %xmm4, %xmm12 aesenc %xmm4, %xmm13 aesenc %xmm4, %xmm14 aesenc %xmm5, %xmm2 aesenc %xmm5, %xmm12 aesenc %xmm5, %xmm13 aesenc %xmm5, %xmm14 aesenc %xmm6, %xmm2 aesenc %xmm6, %xmm12 aesenc %xmm6, %xmm13 aesenc %xmm6, %xmm14 movdqu 224(%r8), %xmm5 aesenclast %xmm5, %xmm2 aesenclast %xmm5, %xmm12 aesenclast %xmm5, %xmm13 aesenclast %xmm5, %xmm14 movdqu 0(%r9), %xmm7 pxor %xmm7, %xmm2 movdqu 16(%r9), %xmm7 pxor %xmm7, %xmm12 movdqu 32(%r9), %xmm7 pxor %xmm7, %xmm13 movdqu 48(%r9), %xmm7 pxor %xmm7, %xmm14 movdqu %xmm2, 0(%r10) movdqu %xmm12, 16(%r10) movdqu %xmm13, 32(%r10) movdqu %xmm14, 48(%r10) sub $1, %rdx add $64, %r9 add $64, %r10 .balign 16 L11: cmp $0, %rdx ja L10 movdqu %xmm9, %xmm7 pinsrq $0, %rdi, %xmm7 pshufb %xmm8, %xmm7 mov %r9, %rax mov %r10, %rbx jmp L9 L8: L9: mov $0, %rdx mov %rax, %r9 mov %rbx, %r10 pxor %xmm4, %xmm4 mov $1, %r12 pinsrd $0, %r12d, %xmm4 jmp L13 .balign 16 L12: movdqu %xmm7, %xmm0 pshufb %xmm8, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%r9), %xmm2 pxor %xmm0, %xmm2 movdqu %xmm2, 0(%r10) add $1, %rdx add $16, %r9 add $16, %r10 paddd %xmm4, %xmm7 .balign 16 L13: cmp %rcx, %rdx jne L12 cmp %rbp, %rsi jbe L14 movdqu 0(%r13), %xmm1 movdqu %xmm7, %xmm0 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm2 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm2 pshufb %xmm2, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pxor %xmm0, %xmm1 movdqu %xmm1, 0(%r13) jmp L15 L14: L15: pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 ret .global compute_iv_stdcall compute_iv_stdcall: cmp $12, %rsi jne L16 cmp $12, %rsi jne L18 movdqu 0(%r8), %xmm0 mov $579005069656919567, %rax pinsrq $0, %rax, %xmm1 mov $283686952306183, %rax pinsrq $1, %rax, %xmm1 pshufb %xmm1, %xmm0 mov $1, %rax pinsrd $0, %eax, %xmm0 movdqu %xmm0, 0(%rcx) jmp L19 L18: mov %rcx, %rax add $32, %r9 mov %r8, %rbx mov %rdx, %rcx imul $16, %rcx mov $579005069656919567, %r10 pinsrq $0, %r10, %xmm9 mov $283686952306183, %r10 pinsrq $1, %r10, %xmm9 pxor %xmm8, %xmm8 mov %rdi, %r11 jmp L21 .balign 16 L20: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L21: cmp $6, %rdx jae L20 cmp $0, %rdx jbe L22 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L24 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L25 L24: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L26 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L28 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L30 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L31 L30: L31: jmp L29 L28: L29: jmp L27 L26: L27: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L25: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L23 L22: L23: mov %rsi, %r15 cmp %rcx, %rsi jbe L32 movdqu 0(%rbx), %xmm0 mov %rsi, %r10 and $15, %r10 cmp $8, %r10 jae L34 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L35 L34: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L35: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L33 L32: L33: mov %rax, %rcx mov $0, %r11 mov %rsi, %r13 pxor %xmm0, %xmm0 mov %r11, %rax imul $8, %rax pinsrq $1, %rax, %xmm0 mov %r13, %rax imul $8, %rax pinsrq $0, %rax, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu %xmm8, 0(%rcx) L19: jmp L17 L16: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx cmp $12, %rsi jne L36 movdqu 0(%r8), %xmm0 mov $579005069656919567, %rax pinsrq $0, %rax, %xmm1 mov $283686952306183, %rax pinsrq $1, %rax, %xmm1 pshufb %xmm1, %xmm0 mov $1, %rax pinsrd $0, %eax, %xmm0 movdqu %xmm0, 0(%rcx) jmp L37 L36: mov %rcx, %rax add $32, %r9 mov %r8, %rbx mov %rdx, %rcx imul $16, %rcx mov $579005069656919567, %r10 pinsrq $0, %r10, %xmm9 mov $283686952306183, %r10 pinsrq $1, %r10, %xmm9 pxor %xmm8, %xmm8 mov %rdi, %r11 jmp L39 .balign 16 L38: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L39: cmp $6, %rdx jae L38 cmp $0, %rdx jbe L40 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L42 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L43 L42: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L44 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L46 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L48 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L49 L48: L49: jmp L47 L46: L47: jmp L45 L44: L45: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L43: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L41 L40: L41: mov %rsi, %r15 cmp %rcx, %rsi jbe L50 movdqu 0(%rbx), %xmm0 mov %rsi, %r10 and $15, %r10 cmp $8, %r10 jae L52 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L53 L52: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L53: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L51 L50: L51: mov %rax, %rcx mov $0, %r11 mov %rsi, %r13 pxor %xmm0, %xmm0 mov %r11, %rax imul $8, %rax pinsrq $1, %rax, %xmm0 mov %r13, %rax imul $8, %rax pinsrq $0, %rax, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu %xmm8, 0(%rcx) L37: pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 L17: ret .global gcm128_encrypt_opt gcm128_encrypt_opt: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx mov 144(%rsp), %rbp mov %rcx, %r13 lea 32(%r9), %r9 mov 72(%rsp), %rbx mov %rdx, %rcx imul $16, %rcx mov $579005069656919567, %r10 pinsrq $0, %r10, %xmm9 mov $283686952306183, %r10 pinsrq $1, %r10, %xmm9 pxor %xmm8, %xmm8 mov %rdi, %r11 jmp L55 .balign 16 L54: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L55: cmp $6, %rdx jae L54 cmp $0, %rdx jbe L56 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L58 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L59 L58: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L60 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L62 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L64 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L65 L64: L65: jmp L63 L62: L63: jmp L61 L60: L61: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L59: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L57 L56: L57: mov %rsi, %r15 cmp %rcx, %rsi jbe L66 movdqu 0(%rbx), %xmm0 mov %rsi, %r10 and $15, %r10 cmp $8, %r10 jae L68 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L69 L68: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L69: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L67 L66: L67: mov 80(%rsp), %rdi mov 88(%rsp), %rsi mov 96(%rsp), %rdx mov %r13, %rcx movdqu %xmm9, %xmm0 movdqu 0(%r8), %xmm1 movdqu %xmm1, 0(%rbp) pxor %xmm10, %xmm10 mov $1, %r11 pinsrq $0, %r11, %xmm10 vpaddd %xmm10, %xmm1, %xmm1 cmp $0, %rdx jne L70 vpshufb %xmm0, %xmm1, %xmm1 movdqu %xmm1, 32(%rbp) jmp L71 L70: movdqu %xmm8, 32(%rbp) add $128, %rcx pextrq $0, %xmm1, %rbx and $255, %rbx vpshufb %xmm0, %xmm1, %xmm1 lea 96(%rsi), %r14 movdqu -128(%rcx), %xmm4 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 movdqu -112(%rcx), %xmm15 mov %rcx, %r12 sub $96, %r12 vpxor %xmm4, %xmm1, %xmm9 add $6, %rbx cmp $256, %rbx jae L72 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm2, %xmm11, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm2, %xmm12, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpaddd %xmm2, %xmm14, %xmm1 vpxor %xmm4, %xmm14, %xmm14 jmp L73 L72: sub $256, %rbx vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpshufb %xmm0, %xmm14, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpshufb %xmm0, %xmm1, %xmm1 vpxor %xmm4, %xmm14, %xmm14 L73: vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -16(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 16(%rcx), %xmm15 movdqu 32(%rcx), %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor 0(%rdi), %xmm3, %xmm4 vaesenc %xmm15, %xmm10, %xmm10 vpxor 16(%rdi), %xmm3, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 vpxor 32(%rdi), %xmm3, %xmm6 vaesenc %xmm15, %xmm12, %xmm12 vpxor 48(%rdi), %xmm3, %xmm8 vaesenc %xmm15, %xmm13, %xmm13 vpxor 64(%rdi), %xmm3, %xmm2 vaesenc %xmm15, %xmm14, %xmm14 vpxor 80(%rdi), %xmm3, %xmm3 lea 96(%rdi), %rdi vaesenclast %xmm4, %xmm9, %xmm9 vaesenclast %xmm5, %xmm10, %xmm10 vaesenclast %xmm6, %xmm11, %xmm11 vaesenclast %xmm8, %xmm12, %xmm12 vaesenclast %xmm2, %xmm13, %xmm13 vaesenclast %xmm3, %xmm14, %xmm14 movdqu %xmm9, 0(%rsi) movdqu %xmm10, 16(%rsi) movdqu %xmm11, 32(%rsi) movdqu %xmm12, 48(%rsi) movdqu %xmm13, 64(%rsi) movdqu %xmm14, 80(%rsi) lea 96(%rsi), %rsi vpshufb %xmm0, %xmm9, %xmm8 vpshufb %xmm0, %xmm10, %xmm2 movdqu %xmm8, 112(%rbp) vpshufb %xmm0, %xmm11, %xmm4 movdqu %xmm2, 96(%rbp) vpshufb %xmm0, %xmm12, %xmm5 movdqu %xmm4, 80(%rbp) vpshufb %xmm0, %xmm13, %xmm6 movdqu %xmm5, 64(%rbp) vpshufb %xmm0, %xmm14, %xmm7 movdqu %xmm6, 48(%rbp) movdqu -128(%rcx), %xmm4 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 movdqu -112(%rcx), %xmm15 mov %rcx, %r12 sub $96, %r12 vpxor %xmm4, %xmm1, %xmm9 add $6, %rbx cmp $256, %rbx jae L74 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm2, %xmm11, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm2, %xmm12, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpaddd %xmm2, %xmm14, %xmm1 vpxor %xmm4, %xmm14, %xmm14 jmp L75 L74: sub $256, %rbx vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpshufb %xmm0, %xmm14, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpshufb %xmm0, %xmm1, %xmm1 vpxor %xmm4, %xmm14, %xmm14 L75: vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -16(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 16(%rcx), %xmm15 movdqu 32(%rcx), %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor 0(%rdi), %xmm3, %xmm4 vaesenc %xmm15, %xmm10, %xmm10 vpxor 16(%rdi), %xmm3, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 vpxor 32(%rdi), %xmm3, %xmm6 vaesenc %xmm15, %xmm12, %xmm12 vpxor 48(%rdi), %xmm3, %xmm8 vaesenc %xmm15, %xmm13, %xmm13 vpxor 64(%rdi), %xmm3, %xmm2 vaesenc %xmm15, %xmm14, %xmm14 vpxor 80(%rdi), %xmm3, %xmm3 lea 96(%rdi), %rdi vaesenclast %xmm4, %xmm9, %xmm9 vaesenclast %xmm5, %xmm10, %xmm10 vaesenclast %xmm6, %xmm11, %xmm11 vaesenclast %xmm8, %xmm12, %xmm12 vaesenclast %xmm2, %xmm13, %xmm13 vaesenclast %xmm3, %xmm14, %xmm14 movdqu %xmm9, 0(%rsi) movdqu %xmm10, 16(%rsi) movdqu %xmm11, 32(%rsi) movdqu %xmm12, 48(%rsi) movdqu %xmm13, 64(%rsi) movdqu %xmm14, 80(%rsi) lea 96(%rsi), %rsi sub $12, %rdx movdqu 32(%rbp), %xmm8 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vpxor %xmm4, %xmm4, %xmm4 movdqu -128(%rcx), %xmm15 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpaddd %xmm2, %xmm11, %xmm12 vpaddd %xmm2, %xmm12, %xmm13 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm4, 16(%rbp) jmp L77 .balign 16 L76: add $6, %rbx cmp $256, %rbx jb L78 mov $579005069656919567, %r11 pinsrq $0, %r11, %xmm0 mov $283686952306183, %r11 pinsrq $1, %r11, %xmm0 vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 movdqu -32(%r9), %xmm3 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm15, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm15, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpshufb %xmm0, %xmm14, %xmm14 vpshufb %xmm0, %xmm1, %xmm1 sub $256, %rbx jmp L79 L78: movdqu -32(%r9), %xmm3 vpaddd %xmm14, %xmm2, %xmm1 vpxor %xmm15, %xmm10, %xmm10 vpxor %xmm15, %xmm11, %xmm11 L79: movdqu %xmm1, 128(%rbp) vpclmulqdq $16, %xmm3, %xmm7, %xmm5 vpxor %xmm15, %xmm12, %xmm12 movdqu -112(%rcx), %xmm2 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vaesenc %xmm2, %xmm9, %xmm9 movdqu 48(%rbp), %xmm0 vpxor %xmm15, %xmm13, %xmm13 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vaesenc %xmm2, %xmm10, %xmm10 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 vaesenc %xmm2, %xmm11, %xmm11 movdqu -16(%r9), %xmm3 vaesenc %xmm2, %xmm12, %xmm12 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vaesenc %xmm2, %xmm13, %xmm13 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vaesenc %xmm2, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 vaesenc %xmm15, %xmm10, %xmm10 movbeq 88(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 80(%r14), %r12 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 32(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 40(%rbp) movdqu 16(%r9), %xmm5 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vaesenc %xmm15, %xmm11, %xmm11 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vaesenc %xmm15, %xmm10, %xmm10 movbeq 72(%r14), %r13 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 movbeq 64(%r14), %r12 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 48(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 56(%rbp) vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vaesenc %xmm15, %xmm10, %xmm10 movbeq 56(%r14), %r13 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vaesenc %xmm15, %xmm11, %xmm11 movbeq 48(%r14), %r12 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 64(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 72(%rbp) vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vaesenc %xmm15, %xmm10, %xmm10 movbeq 40(%r14), %r13 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 movbeq 32(%r14), %r12 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 80(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 88(%rbp) vpxor %xmm5, %xmm6, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor %xmm1, %xmm6, %xmm6 movdqu -16(%rcx), %xmm15 vpslldq $8, %xmm6, %xmm5 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $13979173243358019584, %r11 pinsrq $1, %r11, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm8, %xmm7, %xmm7 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm5, %xmm4, %xmm4 movbeq 24(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 16(%r14), %r12 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 movq %r13, 96(%rbp) vaesenc %xmm15, %xmm12, %xmm12 movq %r12, 104(%rbp) vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm1 vaesenc %xmm1, %xmm9, %xmm9 movdqu 16(%rcx), %xmm15 vaesenc %xmm1, %xmm10, %xmm10 vpsrldq $8, %xmm6, %xmm6 vaesenc %xmm1, %xmm11, %xmm11 vpxor %xmm6, %xmm7, %xmm7 vaesenc %xmm1, %xmm12, %xmm12 vpxor %xmm0, %xmm4, %xmm4 movbeq 8(%r14), %r13 vaesenc %xmm1, %xmm13, %xmm13 movbeq 0(%r14), %r12 vaesenc %xmm1, %xmm14, %xmm14 movdqu 32(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 movdqu %xmm7, 16(%rbp) vpalignr $8, %xmm4, %xmm4, %xmm8 vaesenc %xmm15, %xmm10, %xmm10 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor 0(%rdi), %xmm1, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 vpxor 16(%rdi), %xmm1, %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vpxor 32(%rdi), %xmm1, %xmm5 vaesenc %xmm15, %xmm13, %xmm13 vpxor 48(%rdi), %xmm1, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor 64(%rdi), %xmm1, %xmm7 vpxor 80(%rdi), %xmm1, %xmm3 movdqu 128(%rbp), %xmm1 vaesenclast %xmm2, %xmm9, %xmm9 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vaesenclast %xmm0, %xmm10, %xmm10 vpaddd %xmm2, %xmm1, %xmm0 movq %r13, 112(%rbp) lea 96(%rdi), %rdi vaesenclast %xmm5, %xmm11, %xmm11 vpaddd %xmm2, %xmm0, %xmm5 movq %r12, 120(%rbp) lea 96(%rsi), %rsi movdqu -128(%rcx), %xmm15 vaesenclast %xmm6, %xmm12, %xmm12 vpaddd %xmm2, %xmm5, %xmm6 vaesenclast %xmm7, %xmm13, %xmm13 vpaddd %xmm2, %xmm6, %xmm7 vaesenclast %xmm3, %xmm14, %xmm14 vpaddd %xmm2, %xmm7, %xmm3 sub $6, %rdx add $96, %r14 cmp $0, %rdx jbe L80 movdqu %xmm9, -96(%rsi) vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm10, -80(%rsi) movdqu %xmm0, %xmm10 movdqu %xmm11, -64(%rsi) movdqu %xmm5, %xmm11 movdqu %xmm12, -48(%rsi) movdqu %xmm6, %xmm12 movdqu %xmm13, -32(%rsi) movdqu %xmm7, %xmm13 movdqu %xmm14, -16(%rsi) movdqu %xmm3, %xmm14 movdqu 32(%rbp), %xmm7 jmp L81 L80: vpxor 16(%rbp), %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 L81: .balign 16 L77: cmp $0, %rdx ja L76 movdqu 32(%rbp), %xmm7 movdqu %xmm1, 32(%rbp) pxor %xmm4, %xmm4 movdqu %xmm4, 16(%rbp) movdqu -32(%r9), %xmm3 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vpclmulqdq $16, %xmm3, %xmm7, %xmm5 movdqu 48(%rbp), %xmm0 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 movdqu -16(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 movdqu 16(%r9), %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vpxor %xmm5, %xmm6, %xmm6 vpxor %xmm1, %xmm6, %xmm6 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $3254779904, %rax pinsrd $3, %eax, %xmm3 vpxor %xmm8, %xmm7, %xmm7 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm0 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm0 movdqu %xmm9, -96(%rsi) vpshufb %xmm0, %xmm9, %xmm9 vpxor %xmm7, %xmm1, %xmm1 movdqu %xmm10, -80(%rsi) vpshufb %xmm0, %xmm10, %xmm10 movdqu %xmm11, -64(%rsi) vpshufb %xmm0, %xmm11, %xmm11 movdqu %xmm12, -48(%rsi) vpshufb %xmm0, %xmm12, %xmm12 movdqu %xmm13, -32(%rsi) vpshufb %xmm0, %xmm13, %xmm13 movdqu %xmm14, -16(%rsi) vpshufb %xmm0, %xmm14, %xmm14 pxor %xmm4, %xmm4 movdqu %xmm14, %xmm7 movdqu %xmm4, 16(%rbp) movdqu %xmm13, 48(%rbp) movdqu %xmm12, 64(%rbp) movdqu %xmm11, 80(%rbp) movdqu %xmm10, 96(%rbp) movdqu %xmm9, 112(%rbp) movdqu -32(%r9), %xmm3 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vpclmulqdq $16, %xmm3, %xmm7, %xmm5 movdqu 48(%rbp), %xmm0 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 movdqu -16(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 movdqu 16(%r9), %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vpxor %xmm5, %xmm6, %xmm6 vpxor %xmm1, %xmm6, %xmm6 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $3254779904, %rax pinsrd $3, %eax, %xmm3 vpxor %xmm8, %xmm7, %xmm7 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 sub $128, %rcx L71: movdqu 32(%rbp), %xmm11 mov %rcx, %r8 mov 104(%rsp), %rax mov 112(%rsp), %rdi mov 120(%rsp), %rdx mov %rdx, %r14 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm9 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm9 pshufb %xmm9, %xmm11 pxor %xmm10, %xmm10 mov $1, %rbx pinsrd $0, %ebx, %xmm10 mov %rax, %r11 mov %rdi, %r10 mov $0, %rbx jmp L83 .balign 16 L82: movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%r11), %xmm2 pxor %xmm0, %xmm2 movdqu %xmm2, 0(%r10) add $1, %rbx add $16, %r11 add $16, %r10 paddd %xmm10, %xmm11 .balign 16 L83: cmp %rdx, %rbx jne L82 mov %rdi, %r11 jmp L85 .balign 16 L84: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L85: cmp $6, %rdx jae L84 cmp $0, %rdx jbe L86 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L88 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L89 L88: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L90 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L92 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L94 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L95 L94: L95: jmp L93 L92: L93: jmp L91 L90: L91: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L89: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L87 L86: L87: add 96(%rsp), %r14 imul $16, %r14 mov 136(%rsp), %r13 cmp %r14, %r13 jbe L96 mov 128(%rsp), %rax mov %r13, %r10 and $15, %r10 movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%rax), %xmm4 pxor %xmm4, %xmm0 movdqu %xmm0, 0(%rax) cmp $8, %r10 jae L98 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L99 L98: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L99: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L97 L96: L97: mov %r15, %r11 pxor %xmm0, %xmm0 mov %r11, %rax imul $8, %rax pinsrq $1, %rax, %xmm0 mov %r13, %rax imul $8, %rax pinsrq $0, %rax, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu 0(%rbp), %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pshufb %xmm9, %xmm8 pxor %xmm0, %xmm8 mov 152(%rsp), %r15 movdqu %xmm8, 0(%r15) pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 ret .global gcm256_encrypt_opt gcm256_encrypt_opt: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx mov 144(%rsp), %rbp mov %rcx, %r13 lea 32(%r9), %r9 mov 72(%rsp), %rbx mov %rdx, %rcx imul $16, %rcx mov $579005069656919567, %r10 pinsrq $0, %r10, %xmm9 mov $283686952306183, %r10 pinsrq $1, %r10, %xmm9 pxor %xmm8, %xmm8 mov %rdi, %r11 jmp L101 .balign 16 L100: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L101: cmp $6, %rdx jae L100 cmp $0, %rdx jbe L102 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L104 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L105 L104: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L106 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L108 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L110 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L111 L110: L111: jmp L109 L108: L109: jmp L107 L106: L107: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L105: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L103 L102: L103: mov %rsi, %r15 cmp %rcx, %rsi jbe L112 movdqu 0(%rbx), %xmm0 mov %rsi, %r10 and $15, %r10 cmp $8, %r10 jae L114 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L115 L114: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L115: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L113 L112: L113: mov 80(%rsp), %rdi mov 88(%rsp), %rsi mov 96(%rsp), %rdx mov %r13, %rcx movdqu %xmm9, %xmm0 movdqu 0(%r8), %xmm1 movdqu %xmm1, 0(%rbp) pxor %xmm10, %xmm10 mov $1, %r11 pinsrq $0, %r11, %xmm10 vpaddd %xmm10, %xmm1, %xmm1 cmp $0, %rdx jne L116 vpshufb %xmm0, %xmm1, %xmm1 movdqu %xmm1, 32(%rbp) jmp L117 L116: movdqu %xmm8, 32(%rbp) add $128, %rcx pextrq $0, %xmm1, %rbx and $255, %rbx vpshufb %xmm0, %xmm1, %xmm1 lea 96(%rsi), %r14 movdqu -128(%rcx), %xmm4 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 movdqu -112(%rcx), %xmm15 mov %rcx, %r12 sub $96, %r12 vpxor %xmm4, %xmm1, %xmm9 add $6, %rbx cmp $256, %rbx jae L118 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm2, %xmm11, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm2, %xmm12, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpaddd %xmm2, %xmm14, %xmm1 vpxor %xmm4, %xmm14, %xmm14 jmp L119 L118: sub $256, %rbx vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpshufb %xmm0, %xmm14, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpshufb %xmm0, %xmm1, %xmm1 vpxor %xmm4, %xmm14, %xmm14 L119: vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -16(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 16(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 32(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 48(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 64(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 80(%rcx), %xmm15 movdqu 96(%rcx), %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor 0(%rdi), %xmm3, %xmm4 vaesenc %xmm15, %xmm10, %xmm10 vpxor 16(%rdi), %xmm3, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 vpxor 32(%rdi), %xmm3, %xmm6 vaesenc %xmm15, %xmm12, %xmm12 vpxor 48(%rdi), %xmm3, %xmm8 vaesenc %xmm15, %xmm13, %xmm13 vpxor 64(%rdi), %xmm3, %xmm2 vaesenc %xmm15, %xmm14, %xmm14 vpxor 80(%rdi), %xmm3, %xmm3 lea 96(%rdi), %rdi vaesenclast %xmm4, %xmm9, %xmm9 vaesenclast %xmm5, %xmm10, %xmm10 vaesenclast %xmm6, %xmm11, %xmm11 vaesenclast %xmm8, %xmm12, %xmm12 vaesenclast %xmm2, %xmm13, %xmm13 vaesenclast %xmm3, %xmm14, %xmm14 movdqu %xmm9, 0(%rsi) movdqu %xmm10, 16(%rsi) movdqu %xmm11, 32(%rsi) movdqu %xmm12, 48(%rsi) movdqu %xmm13, 64(%rsi) movdqu %xmm14, 80(%rsi) lea 96(%rsi), %rsi vpshufb %xmm0, %xmm9, %xmm8 vpshufb %xmm0, %xmm10, %xmm2 movdqu %xmm8, 112(%rbp) vpshufb %xmm0, %xmm11, %xmm4 movdqu %xmm2, 96(%rbp) vpshufb %xmm0, %xmm12, %xmm5 movdqu %xmm4, 80(%rbp) vpshufb %xmm0, %xmm13, %xmm6 movdqu %xmm5, 64(%rbp) vpshufb %xmm0, %xmm14, %xmm7 movdqu %xmm6, 48(%rbp) movdqu -128(%rcx), %xmm4 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 movdqu -112(%rcx), %xmm15 mov %rcx, %r12 sub $96, %r12 vpxor %xmm4, %xmm1, %xmm9 add $6, %rbx cmp $256, %rbx jae L120 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm2, %xmm11, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm2, %xmm12, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpaddd %xmm2, %xmm14, %xmm1 vpxor %xmm4, %xmm14, %xmm14 jmp L121 L120: sub $256, %rbx vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm4, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm4, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpxor %xmm4, %xmm12, %xmm12 vpshufb %xmm0, %xmm14, %xmm14 vpxor %xmm4, %xmm13, %xmm13 vpshufb %xmm0, %xmm1, %xmm1 vpxor %xmm4, %xmm14, %xmm14 L121: vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu -16(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 16(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 32(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 48(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 64(%rcx), %xmm15 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 80(%rcx), %xmm15 movdqu 96(%rcx), %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor 0(%rdi), %xmm3, %xmm4 vaesenc %xmm15, %xmm10, %xmm10 vpxor 16(%rdi), %xmm3, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 vpxor 32(%rdi), %xmm3, %xmm6 vaesenc %xmm15, %xmm12, %xmm12 vpxor 48(%rdi), %xmm3, %xmm8 vaesenc %xmm15, %xmm13, %xmm13 vpxor 64(%rdi), %xmm3, %xmm2 vaesenc %xmm15, %xmm14, %xmm14 vpxor 80(%rdi), %xmm3, %xmm3 lea 96(%rdi), %rdi vaesenclast %xmm4, %xmm9, %xmm9 vaesenclast %xmm5, %xmm10, %xmm10 vaesenclast %xmm6, %xmm11, %xmm11 vaesenclast %xmm8, %xmm12, %xmm12 vaesenclast %xmm2, %xmm13, %xmm13 vaesenclast %xmm3, %xmm14, %xmm14 movdqu %xmm9, 0(%rsi) movdqu %xmm10, 16(%rsi) movdqu %xmm11, 32(%rsi) movdqu %xmm12, 48(%rsi) movdqu %xmm13, 64(%rsi) movdqu %xmm14, 80(%rsi) lea 96(%rsi), %rsi sub $12, %rdx movdqu 32(%rbp), %xmm8 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vpxor %xmm4, %xmm4, %xmm4 movdqu -128(%rcx), %xmm15 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpaddd %xmm2, %xmm11, %xmm12 vpaddd %xmm2, %xmm12, %xmm13 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm4, 16(%rbp) jmp L123 .balign 16 L122: add $6, %rbx cmp $256, %rbx jb L124 mov $579005069656919567, %r11 pinsrq $0, %r11, %xmm0 mov $283686952306183, %r11 pinsrq $1, %r11, %xmm0 vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 movdqu -32(%r9), %xmm3 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm15, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm15, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpshufb %xmm0, %xmm14, %xmm14 vpshufb %xmm0, %xmm1, %xmm1 sub $256, %rbx jmp L125 L124: movdqu -32(%r9), %xmm3 vpaddd %xmm14, %xmm2, %xmm1 vpxor %xmm15, %xmm10, %xmm10 vpxor %xmm15, %xmm11, %xmm11 L125: movdqu %xmm1, 128(%rbp) vpclmulqdq $16, %xmm3, %xmm7, %xmm5 vpxor %xmm15, %xmm12, %xmm12 movdqu -112(%rcx), %xmm2 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vaesenc %xmm2, %xmm9, %xmm9 movdqu 48(%rbp), %xmm0 vpxor %xmm15, %xmm13, %xmm13 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vaesenc %xmm2, %xmm10, %xmm10 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 vaesenc %xmm2, %xmm11, %xmm11 movdqu -16(%r9), %xmm3 vaesenc %xmm2, %xmm12, %xmm12 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vaesenc %xmm2, %xmm13, %xmm13 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vaesenc %xmm2, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 vaesenc %xmm15, %xmm10, %xmm10 movbeq 88(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 80(%r14), %r12 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 32(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 40(%rbp) movdqu 16(%r9), %xmm5 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vaesenc %xmm15, %xmm11, %xmm11 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vaesenc %xmm15, %xmm10, %xmm10 movbeq 72(%r14), %r13 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 movbeq 64(%r14), %r12 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 48(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 56(%rbp) vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vaesenc %xmm15, %xmm10, %xmm10 movbeq 56(%r14), %r13 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vaesenc %xmm15, %xmm11, %xmm11 movbeq 48(%r14), %r12 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 64(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 72(%rbp) vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vaesenc %xmm15, %xmm10, %xmm10 movbeq 40(%r14), %r13 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 movbeq 32(%r14), %r12 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 80(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 88(%rbp) vpxor %xmm5, %xmm6, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor %xmm1, %xmm6, %xmm6 movdqu -16(%rcx), %xmm15 vpslldq $8, %xmm6, %xmm5 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $13979173243358019584, %r11 pinsrq $1, %r11, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm8, %xmm7, %xmm7 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm5, %xmm4, %xmm4 movbeq 24(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 16(%r14), %r12 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 movq %r13, 96(%rbp) vaesenc %xmm15, %xmm12, %xmm12 movq %r12, 104(%rbp) vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm1 vaesenc %xmm1, %xmm9, %xmm9 movdqu 16(%rcx), %xmm15 vaesenc %xmm1, %xmm10, %xmm10 vpsrldq $8, %xmm6, %xmm6 vaesenc %xmm1, %xmm11, %xmm11 vpxor %xmm6, %xmm7, %xmm7 vaesenc %xmm1, %xmm12, %xmm12 vpxor %xmm0, %xmm4, %xmm4 movbeq 8(%r14), %r13 vaesenc %xmm1, %xmm13, %xmm13 movbeq 0(%r14), %r12 vaesenc %xmm1, %xmm14, %xmm14 movdqu 32(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 vaesenc %xmm1, %xmm9, %xmm9 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm1, %xmm13, %xmm13 movdqu 48(%rcx), %xmm15 vaesenc %xmm1, %xmm14, %xmm14 movdqu 64(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 vaesenc %xmm1, %xmm9, %xmm9 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm1, %xmm13, %xmm13 movdqu 80(%rcx), %xmm15 vaesenc %xmm1, %xmm14, %xmm14 movdqu 96(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 movdqu %xmm7, 16(%rbp) vpalignr $8, %xmm4, %xmm4, %xmm8 vaesenc %xmm15, %xmm10, %xmm10 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor 0(%rdi), %xmm1, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 vpxor 16(%rdi), %xmm1, %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vpxor 32(%rdi), %xmm1, %xmm5 vaesenc %xmm15, %xmm13, %xmm13 vpxor 48(%rdi), %xmm1, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor 64(%rdi), %xmm1, %xmm7 vpxor 80(%rdi), %xmm1, %xmm3 movdqu 128(%rbp), %xmm1 vaesenclast %xmm2, %xmm9, %xmm9 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vaesenclast %xmm0, %xmm10, %xmm10 vpaddd %xmm2, %xmm1, %xmm0 movq %r13, 112(%rbp) lea 96(%rdi), %rdi vaesenclast %xmm5, %xmm11, %xmm11 vpaddd %xmm2, %xmm0, %xmm5 movq %r12, 120(%rbp) lea 96(%rsi), %rsi movdqu -128(%rcx), %xmm15 vaesenclast %xmm6, %xmm12, %xmm12 vpaddd %xmm2, %xmm5, %xmm6 vaesenclast %xmm7, %xmm13, %xmm13 vpaddd %xmm2, %xmm6, %xmm7 vaesenclast %xmm3, %xmm14, %xmm14 vpaddd %xmm2, %xmm7, %xmm3 sub $6, %rdx add $96, %r14 cmp $0, %rdx jbe L126 movdqu %xmm9, -96(%rsi) vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm10, -80(%rsi) movdqu %xmm0, %xmm10 movdqu %xmm11, -64(%rsi) movdqu %xmm5, %xmm11 movdqu %xmm12, -48(%rsi) movdqu %xmm6, %xmm12 movdqu %xmm13, -32(%rsi) movdqu %xmm7, %xmm13 movdqu %xmm14, -16(%rsi) movdqu %xmm3, %xmm14 movdqu 32(%rbp), %xmm7 jmp L127 L126: vpxor 16(%rbp), %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 L127: .balign 16 L123: cmp $0, %rdx ja L122 movdqu 32(%rbp), %xmm7 movdqu %xmm1, 32(%rbp) pxor %xmm4, %xmm4 movdqu %xmm4, 16(%rbp) movdqu -32(%r9), %xmm3 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vpclmulqdq $16, %xmm3, %xmm7, %xmm5 movdqu 48(%rbp), %xmm0 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 movdqu -16(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 movdqu 16(%r9), %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vpxor %xmm5, %xmm6, %xmm6 vpxor %xmm1, %xmm6, %xmm6 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $3254779904, %rax pinsrd $3, %eax, %xmm3 vpxor %xmm8, %xmm7, %xmm7 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm0 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm0 movdqu %xmm9, -96(%rsi) vpshufb %xmm0, %xmm9, %xmm9 vpxor %xmm7, %xmm1, %xmm1 movdqu %xmm10, -80(%rsi) vpshufb %xmm0, %xmm10, %xmm10 movdqu %xmm11, -64(%rsi) vpshufb %xmm0, %xmm11, %xmm11 movdqu %xmm12, -48(%rsi) vpshufb %xmm0, %xmm12, %xmm12 movdqu %xmm13, -32(%rsi) vpshufb %xmm0, %xmm13, %xmm13 movdqu %xmm14, -16(%rsi) vpshufb %xmm0, %xmm14, %xmm14 pxor %xmm4, %xmm4 movdqu %xmm14, %xmm7 movdqu %xmm4, 16(%rbp) movdqu %xmm13, 48(%rbp) movdqu %xmm12, 64(%rbp) movdqu %xmm11, 80(%rbp) movdqu %xmm10, 96(%rbp) movdqu %xmm9, 112(%rbp) movdqu -32(%r9), %xmm3 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vpclmulqdq $16, %xmm3, %xmm7, %xmm5 movdqu 48(%rbp), %xmm0 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 movdqu -16(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 movdqu 16(%r9), %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vpxor %xmm5, %xmm6, %xmm6 vpxor %xmm1, %xmm6, %xmm6 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $3254779904, %rax pinsrd $3, %eax, %xmm3 vpxor %xmm8, %xmm7, %xmm7 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 sub $128, %rcx L117: movdqu 32(%rbp), %xmm11 mov %rcx, %r8 mov 104(%rsp), %rax mov 112(%rsp), %rdi mov 120(%rsp), %rdx mov %rdx, %r14 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm9 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm9 pshufb %xmm9, %xmm11 pxor %xmm10, %xmm10 mov $1, %rbx pinsrd $0, %ebx, %xmm10 mov %rax, %r11 mov %rdi, %r10 mov $0, %rbx jmp L129 .balign 16 L128: movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%r11), %xmm2 pxor %xmm0, %xmm2 movdqu %xmm2, 0(%r10) add $1, %rbx add $16, %r11 add $16, %r10 paddd %xmm10, %xmm11 .balign 16 L129: cmp %rdx, %rbx jne L128 mov %rdi, %r11 jmp L131 .balign 16 L130: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L131: cmp $6, %rdx jae L130 cmp $0, %rdx jbe L132 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L134 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L135 L134: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L136 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L138 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L140 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L141 L140: L141: jmp L139 L138: L139: jmp L137 L136: L137: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L135: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L133 L132: L133: add 96(%rsp), %r14 imul $16, %r14 mov 136(%rsp), %r13 cmp %r14, %r13 jbe L142 mov 128(%rsp), %rax mov %r13, %r10 and $15, %r10 movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%rax), %xmm4 pxor %xmm4, %xmm0 movdqu %xmm0, 0(%rax) cmp $8, %r10 jae L144 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L145 L144: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L145: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L143 L142: L143: mov %r15, %r11 pxor %xmm0, %xmm0 mov %r11, %rax imul $8, %rax pinsrq $1, %rax, %xmm0 mov %r13, %rax imul $8, %rax pinsrq $0, %rax, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu 0(%rbp), %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pshufb %xmm9, %xmm8 pxor %xmm0, %xmm8 mov 152(%rsp), %r15 movdqu %xmm8, 0(%r15) pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 ret .global gcm128_decrypt_opt gcm128_decrypt_opt: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx mov 144(%rsp), %rbp mov %rcx, %r13 lea 32(%r9), %r9 mov 72(%rsp), %rbx mov %rdx, %rcx imul $16, %rcx mov $579005069656919567, %r10 pinsrq $0, %r10, %xmm9 mov $283686952306183, %r10 pinsrq $1, %r10, %xmm9 pxor %xmm8, %xmm8 mov %rdi, %r11 jmp L147 .balign 16 L146: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L147: cmp $6, %rdx jae L146 cmp $0, %rdx jbe L148 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L150 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L151 L150: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L152 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L154 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L156 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L157 L156: L157: jmp L155 L154: L155: jmp L153 L152: L153: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L151: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L149 L148: L149: mov %rsi, %r15 cmp %rcx, %rsi jbe L158 movdqu 0(%rbx), %xmm0 mov %rsi, %r10 and $15, %r10 cmp $8, %r10 jae L160 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L161 L160: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L161: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L159 L158: L159: mov 80(%rsp), %rdi mov 88(%rsp), %rsi mov 96(%rsp), %rdx mov %r13, %rcx movdqu %xmm9, %xmm0 movdqu 0(%r8), %xmm1 movdqu %xmm1, 0(%rbp) pxor %xmm10, %xmm10 mov $1, %r11 pinsrq $0, %r11, %xmm10 vpaddd %xmm10, %xmm1, %xmm1 cmp $0, %rdx jne L162 vpshufb %xmm0, %xmm1, %xmm1 movdqu %xmm1, 32(%rbp) jmp L163 L162: movdqu %xmm8, 32(%rbp) add $128, %rcx pextrq $0, %xmm1, %rbx and $255, %rbx vpshufb %xmm0, %xmm1, %xmm1 lea 96(%rdi), %r14 movdqu 32(%rbp), %xmm8 movdqu 80(%rdi), %xmm7 movdqu 64(%rdi), %xmm4 movdqu 48(%rdi), %xmm5 movdqu 32(%rdi), %xmm6 vpshufb %xmm0, %xmm7, %xmm7 movdqu 16(%rdi), %xmm2 vpshufb %xmm0, %xmm4, %xmm4 movdqu 0(%rdi), %xmm3 vpshufb %xmm0, %xmm5, %xmm5 movdqu %xmm4, 48(%rbp) vpshufb %xmm0, %xmm6, %xmm6 movdqu %xmm5, 64(%rbp) vpshufb %xmm0, %xmm2, %xmm2 movdqu %xmm6, 80(%rbp) vpshufb %xmm0, %xmm3, %xmm3 movdqu %xmm2, 96(%rbp) movdqu %xmm3, 112(%rbp) pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vpxor %xmm4, %xmm4, %xmm4 movdqu -128(%rcx), %xmm15 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpaddd %xmm2, %xmm11, %xmm12 vpaddd %xmm2, %xmm12, %xmm13 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm4, 16(%rbp) cmp $6, %rdx jne L164 sub $96, %r14 jmp L165 L164: L165: jmp L167 .balign 16 L166: add $6, %rbx cmp $256, %rbx jb L168 mov $579005069656919567, %r11 pinsrq $0, %r11, %xmm0 mov $283686952306183, %r11 pinsrq $1, %r11, %xmm0 vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 movdqu -32(%r9), %xmm3 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm15, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm15, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpshufb %xmm0, %xmm14, %xmm14 vpshufb %xmm0, %xmm1, %xmm1 sub $256, %rbx jmp L169 L168: movdqu -32(%r9), %xmm3 vpaddd %xmm14, %xmm2, %xmm1 vpxor %xmm15, %xmm10, %xmm10 vpxor %xmm15, %xmm11, %xmm11 L169: movdqu %xmm1, 128(%rbp) vpclmulqdq $16, %xmm3, %xmm7, %xmm5 vpxor %xmm15, %xmm12, %xmm12 movdqu -112(%rcx), %xmm2 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vaesenc %xmm2, %xmm9, %xmm9 movdqu 48(%rbp), %xmm0 vpxor %xmm15, %xmm13, %xmm13 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vaesenc %xmm2, %xmm10, %xmm10 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 vaesenc %xmm2, %xmm11, %xmm11 movdqu -16(%r9), %xmm3 vaesenc %xmm2, %xmm12, %xmm12 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vaesenc %xmm2, %xmm13, %xmm13 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vaesenc %xmm2, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 vaesenc %xmm15, %xmm10, %xmm10 movbeq 88(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 80(%r14), %r12 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 32(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 40(%rbp) movdqu 16(%r9), %xmm5 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vaesenc %xmm15, %xmm11, %xmm11 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vaesenc %xmm15, %xmm10, %xmm10 movbeq 72(%r14), %r13 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 movbeq 64(%r14), %r12 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 48(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 56(%rbp) vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vaesenc %xmm15, %xmm10, %xmm10 movbeq 56(%r14), %r13 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vaesenc %xmm15, %xmm11, %xmm11 movbeq 48(%r14), %r12 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 64(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 72(%rbp) vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vaesenc %xmm15, %xmm10, %xmm10 movbeq 40(%r14), %r13 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 movbeq 32(%r14), %r12 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 80(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 88(%rbp) vpxor %xmm5, %xmm6, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor %xmm1, %xmm6, %xmm6 movdqu -16(%rcx), %xmm15 vpslldq $8, %xmm6, %xmm5 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $13979173243358019584, %r11 pinsrq $1, %r11, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm8, %xmm7, %xmm7 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm5, %xmm4, %xmm4 movbeq 24(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 16(%r14), %r12 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 movq %r13, 96(%rbp) vaesenc %xmm15, %xmm12, %xmm12 movq %r12, 104(%rbp) vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm1 vaesenc %xmm1, %xmm9, %xmm9 movdqu 16(%rcx), %xmm15 vaesenc %xmm1, %xmm10, %xmm10 vpsrldq $8, %xmm6, %xmm6 vaesenc %xmm1, %xmm11, %xmm11 vpxor %xmm6, %xmm7, %xmm7 vaesenc %xmm1, %xmm12, %xmm12 vpxor %xmm0, %xmm4, %xmm4 movbeq 8(%r14), %r13 vaesenc %xmm1, %xmm13, %xmm13 movbeq 0(%r14), %r12 vaesenc %xmm1, %xmm14, %xmm14 movdqu 32(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 movdqu %xmm7, 16(%rbp) vpalignr $8, %xmm4, %xmm4, %xmm8 vaesenc %xmm15, %xmm10, %xmm10 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor 0(%rdi), %xmm1, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 vpxor 16(%rdi), %xmm1, %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vpxor 32(%rdi), %xmm1, %xmm5 vaesenc %xmm15, %xmm13, %xmm13 vpxor 48(%rdi), %xmm1, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor 64(%rdi), %xmm1, %xmm7 vpxor 80(%rdi), %xmm1, %xmm3 movdqu 128(%rbp), %xmm1 vaesenclast %xmm2, %xmm9, %xmm9 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vaesenclast %xmm0, %xmm10, %xmm10 vpaddd %xmm2, %xmm1, %xmm0 movq %r13, 112(%rbp) lea 96(%rdi), %rdi vaesenclast %xmm5, %xmm11, %xmm11 vpaddd %xmm2, %xmm0, %xmm5 movq %r12, 120(%rbp) lea 96(%rsi), %rsi movdqu -128(%rcx), %xmm15 vaesenclast %xmm6, %xmm12, %xmm12 vpaddd %xmm2, %xmm5, %xmm6 vaesenclast %xmm7, %xmm13, %xmm13 vpaddd %xmm2, %xmm6, %xmm7 vaesenclast %xmm3, %xmm14, %xmm14 vpaddd %xmm2, %xmm7, %xmm3 sub $6, %rdx cmp $6, %rdx jbe L170 add $96, %r14 jmp L171 L170: L171: cmp $0, %rdx jbe L172 movdqu %xmm9, -96(%rsi) vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm10, -80(%rsi) movdqu %xmm0, %xmm10 movdqu %xmm11, -64(%rsi) movdqu %xmm5, %xmm11 movdqu %xmm12, -48(%rsi) movdqu %xmm6, %xmm12 movdqu %xmm13, -32(%rsi) movdqu %xmm7, %xmm13 movdqu %xmm14, -16(%rsi) movdqu %xmm3, %xmm14 movdqu 32(%rbp), %xmm7 jmp L173 L172: vpxor 16(%rbp), %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 L173: .balign 16 L167: cmp $0, %rdx ja L166 movdqu %xmm1, 32(%rbp) movdqu %xmm9, -96(%rsi) movdqu %xmm10, -80(%rsi) movdqu %xmm11, -64(%rsi) movdqu %xmm12, -48(%rsi) movdqu %xmm13, -32(%rsi) movdqu %xmm14, -16(%rsi) sub $128, %rcx L163: movdqu 32(%rbp), %xmm11 mov %rcx, %r8 mov 104(%rsp), %rax mov 112(%rsp), %rdi mov 120(%rsp), %rdx mov %rdx, %r14 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm9 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm9 pshufb %xmm9, %xmm11 mov %rdi, %rbx mov %rdx, %r12 mov %rax, %rdi mov %rdi, %r11 jmp L175 .balign 16 L174: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L175: cmp $6, %rdx jae L174 cmp $0, %rdx jbe L176 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L178 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L179 L178: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L180 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L182 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L184 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L185 L184: L185: jmp L183 L182: L183: jmp L181 L180: L181: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L179: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L177 L176: L177: mov %rbx, %rdi mov %r12, %rdx pxor %xmm10, %xmm10 mov $1, %rbx pinsrd $0, %ebx, %xmm10 mov %rax, %r11 mov %rdi, %r10 mov $0, %rbx jmp L187 .balign 16 L186: movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%r11), %xmm2 pxor %xmm0, %xmm2 movdqu %xmm2, 0(%r10) add $1, %rbx add $16, %r11 add $16, %r10 paddd %xmm10, %xmm11 .balign 16 L187: cmp %rdx, %rbx jne L186 add 96(%rsp), %r14 imul $16, %r14 mov 136(%rsp), %r13 cmp %r14, %r13 jbe L188 mov 128(%rsp), %rax mov %r13, %r10 and $15, %r10 movdqu 0(%rax), %xmm0 movdqu %xmm0, %xmm10 cmp $8, %r10 jae L190 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L191 L190: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L191: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pxor %xmm0, %xmm10 movdqu %xmm10, 0(%rax) jmp L189 L188: L189: mov %r15, %r11 pxor %xmm0, %xmm0 mov %r11, %rax imul $8, %rax pinsrq $1, %rax, %xmm0 mov %r13, %rax imul $8, %rax pinsrq $0, %rax, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu 0(%rbp), %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pshufb %xmm9, %xmm8 pxor %xmm0, %xmm8 mov 152(%rsp), %r15 movdqu 0(%r15), %xmm0 pcmpeqd %xmm8, %xmm0 pextrq $0, %xmm0, %rdx sub $18446744073709551615, %rdx mov $0, %rax adc $0, %rax pextrq $1, %xmm0, %rdx sub $18446744073709551615, %rdx mov $0, %rdx adc $0, %rdx add %rdx, %rax mov %rax, %rcx pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 mov %rcx, %rax ret .global gcm256_decrypt_opt gcm256_decrypt_opt: push %r15 push %r14 push %r13 push %r12 push %rsi push %rdi push %rbp push %rbx mov 144(%rsp), %rbp mov %rcx, %r13 lea 32(%r9), %r9 mov 72(%rsp), %rbx mov %rdx, %rcx imul $16, %rcx mov $579005069656919567, %r10 pinsrq $0, %r10, %xmm9 mov $283686952306183, %r10 pinsrq $1, %r10, %xmm9 pxor %xmm8, %xmm8 mov %rdi, %r11 jmp L193 .balign 16 L192: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L193: cmp $6, %rdx jae L192 cmp $0, %rdx jbe L194 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L196 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L197 L196: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L198 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L200 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L202 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L203 L202: L203: jmp L201 L200: L201: jmp L199 L198: L199: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L197: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L195 L194: L195: mov %rsi, %r15 cmp %rcx, %rsi jbe L204 movdqu 0(%rbx), %xmm0 mov %rsi, %r10 and $15, %r10 cmp $8, %r10 jae L206 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L207 L206: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L207: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L205 L204: L205: mov 80(%rsp), %rdi mov 88(%rsp), %rsi mov 96(%rsp), %rdx mov %r13, %rcx movdqu %xmm9, %xmm0 movdqu 0(%r8), %xmm1 movdqu %xmm1, 0(%rbp) pxor %xmm10, %xmm10 mov $1, %r11 pinsrq $0, %r11, %xmm10 vpaddd %xmm10, %xmm1, %xmm1 cmp $0, %rdx jne L208 vpshufb %xmm0, %xmm1, %xmm1 movdqu %xmm1, 32(%rbp) jmp L209 L208: movdqu %xmm8, 32(%rbp) add $128, %rcx pextrq $0, %xmm1, %rbx and $255, %rbx vpshufb %xmm0, %xmm1, %xmm1 lea 96(%rdi), %r14 movdqu 32(%rbp), %xmm8 movdqu 80(%rdi), %xmm7 movdqu 64(%rdi), %xmm4 movdqu 48(%rdi), %xmm5 movdqu 32(%rdi), %xmm6 vpshufb %xmm0, %xmm7, %xmm7 movdqu 16(%rdi), %xmm2 vpshufb %xmm0, %xmm4, %xmm4 movdqu 0(%rdi), %xmm3 vpshufb %xmm0, %xmm5, %xmm5 movdqu %xmm4, 48(%rbp) vpshufb %xmm0, %xmm6, %xmm6 movdqu %xmm5, 64(%rbp) vpshufb %xmm0, %xmm2, %xmm2 movdqu %xmm6, 80(%rbp) vpshufb %xmm0, %xmm3, %xmm3 movdqu %xmm2, 96(%rbp) movdqu %xmm3, 112(%rbp) pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vpxor %xmm4, %xmm4, %xmm4 movdqu -128(%rcx), %xmm15 vpaddd %xmm2, %xmm1, %xmm10 vpaddd %xmm2, %xmm10, %xmm11 vpaddd %xmm2, %xmm11, %xmm12 vpaddd %xmm2, %xmm12, %xmm13 vpaddd %xmm2, %xmm13, %xmm14 vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm4, 16(%rbp) cmp $6, %rdx jne L210 sub $96, %r14 jmp L211 L210: L211: jmp L213 .balign 16 L212: add $6, %rbx cmp $256, %rbx jb L214 mov $579005069656919567, %r11 pinsrq $0, %r11, %xmm0 mov $283686952306183, %r11 pinsrq $1, %r11, %xmm0 vpshufb %xmm0, %xmm1, %xmm6 pxor %xmm5, %xmm5 mov $1, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm10 pxor %xmm5, %xmm5 mov $2, %r11 pinsrq $0, %r11, %xmm5 vpaddd %xmm5, %xmm6, %xmm11 movdqu -32(%r9), %xmm3 vpaddd %xmm5, %xmm10, %xmm12 vpshufb %xmm0, %xmm10, %xmm10 vpaddd %xmm5, %xmm11, %xmm13 vpshufb %xmm0, %xmm11, %xmm11 vpxor %xmm15, %xmm10, %xmm10 vpaddd %xmm5, %xmm12, %xmm14 vpshufb %xmm0, %xmm12, %xmm12 vpxor %xmm15, %xmm11, %xmm11 vpaddd %xmm5, %xmm13, %xmm1 vpshufb %xmm0, %xmm13, %xmm13 vpshufb %xmm0, %xmm14, %xmm14 vpshufb %xmm0, %xmm1, %xmm1 sub $256, %rbx jmp L215 L214: movdqu -32(%r9), %xmm3 vpaddd %xmm14, %xmm2, %xmm1 vpxor %xmm15, %xmm10, %xmm10 vpxor %xmm15, %xmm11, %xmm11 L215: movdqu %xmm1, 128(%rbp) vpclmulqdq $16, %xmm3, %xmm7, %xmm5 vpxor %xmm15, %xmm12, %xmm12 movdqu -112(%rcx), %xmm2 vpclmulqdq $1, %xmm3, %xmm7, %xmm6 vaesenc %xmm2, %xmm9, %xmm9 movdqu 48(%rbp), %xmm0 vpxor %xmm15, %xmm13, %xmm13 vpclmulqdq $0, %xmm3, %xmm7, %xmm1 vaesenc %xmm2, %xmm10, %xmm10 vpxor %xmm15, %xmm14, %xmm14 vpclmulqdq $17, %xmm3, %xmm7, %xmm7 vaesenc %xmm2, %xmm11, %xmm11 movdqu -16(%r9), %xmm3 vaesenc %xmm2, %xmm12, %xmm12 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $0, %xmm3, %xmm0, %xmm5 vpxor %xmm4, %xmm8, %xmm8 vaesenc %xmm2, %xmm13, %xmm13 vpxor %xmm5, %xmm1, %xmm4 vpclmulqdq $16, %xmm3, %xmm0, %xmm1 vaesenc %xmm2, %xmm14, %xmm14 movdqu -96(%rcx), %xmm15 vpclmulqdq $1, %xmm3, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor 16(%rbp), %xmm8, %xmm8 vpclmulqdq $17, %xmm3, %xmm0, %xmm3 movdqu 64(%rbp), %xmm0 vaesenc %xmm15, %xmm10, %xmm10 movbeq 88(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 80(%r14), %r12 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 32(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 40(%rbp) movdqu 16(%r9), %xmm5 vaesenc %xmm15, %xmm14, %xmm14 movdqu -80(%rcx), %xmm15 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm3, %xmm7, %xmm7 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vaesenc %xmm15, %xmm11, %xmm11 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 80(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vaesenc %xmm15, %xmm14, %xmm14 movdqu -64(%rcx), %xmm15 vpxor %xmm2, %xmm6, %xmm6 vpclmulqdq $0, %xmm1, %xmm0, %xmm2 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $16, %xmm1, %xmm0, %xmm3 vaesenc %xmm15, %xmm10, %xmm10 movbeq 72(%r14), %r13 vpxor %xmm5, %xmm7, %xmm7 vpclmulqdq $1, %xmm1, %xmm0, %xmm5 vaesenc %xmm15, %xmm11, %xmm11 movbeq 64(%r14), %r12 vpclmulqdq $17, %xmm1, %xmm0, %xmm1 movdqu 96(%rbp), %xmm0 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 48(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 56(%rbp) vpxor %xmm2, %xmm4, %xmm4 movdqu 64(%r9), %xmm2 vaesenc %xmm15, %xmm14, %xmm14 movdqu -48(%rcx), %xmm15 vpxor %xmm3, %xmm6, %xmm6 vpclmulqdq $0, %xmm2, %xmm0, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm2, %xmm0, %xmm5 vaesenc %xmm15, %xmm10, %xmm10 movbeq 56(%r14), %r13 vpxor %xmm1, %xmm7, %xmm7 vpclmulqdq $1, %xmm2, %xmm0, %xmm1 vpxor 112(%rbp), %xmm8, %xmm8 vaesenc %xmm15, %xmm11, %xmm11 movbeq 48(%r14), %r12 vpclmulqdq $17, %xmm2, %xmm0, %xmm2 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 64(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 72(%rbp) vpxor %xmm3, %xmm4, %xmm4 movdqu 80(%r9), %xmm3 vaesenc %xmm15, %xmm14, %xmm14 movdqu -32(%rcx), %xmm15 vpxor %xmm5, %xmm6, %xmm6 vpclmulqdq $16, %xmm3, %xmm8, %xmm5 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm1, %xmm6, %xmm6 vpclmulqdq $1, %xmm3, %xmm8, %xmm1 vaesenc %xmm15, %xmm10, %xmm10 movbeq 40(%r14), %r13 vpxor %xmm2, %xmm7, %xmm7 vpclmulqdq $0, %xmm3, %xmm8, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 movbeq 32(%r14), %r12 vpclmulqdq $17, %xmm3, %xmm8, %xmm8 vaesenc %xmm15, %xmm12, %xmm12 movq %r13, 80(%rbp) vaesenc %xmm15, %xmm13, %xmm13 movq %r12, 88(%rbp) vpxor %xmm5, %xmm6, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor %xmm1, %xmm6, %xmm6 movdqu -16(%rcx), %xmm15 vpslldq $8, %xmm6, %xmm5 vpxor %xmm2, %xmm4, %xmm4 pxor %xmm3, %xmm3 mov $13979173243358019584, %r11 pinsrq $1, %r11, %xmm3 vaesenc %xmm15, %xmm9, %xmm9 vpxor %xmm8, %xmm7, %xmm7 vaesenc %xmm15, %xmm10, %xmm10 vpxor %xmm5, %xmm4, %xmm4 movbeq 24(%r14), %r13 vaesenc %xmm15, %xmm11, %xmm11 movbeq 16(%r14), %r12 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 movq %r13, 96(%rbp) vaesenc %xmm15, %xmm12, %xmm12 movq %r12, 104(%rbp) vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 movdqu 0(%rcx), %xmm1 vaesenc %xmm1, %xmm9, %xmm9 movdqu 16(%rcx), %xmm15 vaesenc %xmm1, %xmm10, %xmm10 vpsrldq $8, %xmm6, %xmm6 vaesenc %xmm1, %xmm11, %xmm11 vpxor %xmm6, %xmm7, %xmm7 vaesenc %xmm1, %xmm12, %xmm12 vpxor %xmm0, %xmm4, %xmm4 movbeq 8(%r14), %r13 vaesenc %xmm1, %xmm13, %xmm13 movbeq 0(%r14), %r12 vaesenc %xmm1, %xmm14, %xmm14 movdqu 32(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 vaesenc %xmm1, %xmm9, %xmm9 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm1, %xmm13, %xmm13 movdqu 48(%rcx), %xmm15 vaesenc %xmm1, %xmm14, %xmm14 movdqu 64(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 vaesenc %xmm15, %xmm10, %xmm10 vaesenc %xmm15, %xmm11, %xmm11 vaesenc %xmm15, %xmm12, %xmm12 vaesenc %xmm15, %xmm13, %xmm13 vaesenc %xmm15, %xmm14, %xmm14 vaesenc %xmm1, %xmm9, %xmm9 vaesenc %xmm1, %xmm10, %xmm10 vaesenc %xmm1, %xmm11, %xmm11 vaesenc %xmm1, %xmm12, %xmm12 vaesenc %xmm1, %xmm13, %xmm13 movdqu 80(%rcx), %xmm15 vaesenc %xmm1, %xmm14, %xmm14 movdqu 96(%rcx), %xmm1 vaesenc %xmm15, %xmm9, %xmm9 movdqu %xmm7, 16(%rbp) vpalignr $8, %xmm4, %xmm4, %xmm8 vaesenc %xmm15, %xmm10, %xmm10 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor 0(%rdi), %xmm1, %xmm2 vaesenc %xmm15, %xmm11, %xmm11 vpxor 16(%rdi), %xmm1, %xmm0 vaesenc %xmm15, %xmm12, %xmm12 vpxor 32(%rdi), %xmm1, %xmm5 vaesenc %xmm15, %xmm13, %xmm13 vpxor 48(%rdi), %xmm1, %xmm6 vaesenc %xmm15, %xmm14, %xmm14 vpxor 64(%rdi), %xmm1, %xmm7 vpxor 80(%rdi), %xmm1, %xmm3 movdqu 128(%rbp), %xmm1 vaesenclast %xmm2, %xmm9, %xmm9 pxor %xmm2, %xmm2 mov $72057594037927936, %r11 pinsrq $1, %r11, %xmm2 vaesenclast %xmm0, %xmm10, %xmm10 vpaddd %xmm2, %xmm1, %xmm0 movq %r13, 112(%rbp) lea 96(%rdi), %rdi vaesenclast %xmm5, %xmm11, %xmm11 vpaddd %xmm2, %xmm0, %xmm5 movq %r12, 120(%rbp) lea 96(%rsi), %rsi movdqu -128(%rcx), %xmm15 vaesenclast %xmm6, %xmm12, %xmm12 vpaddd %xmm2, %xmm5, %xmm6 vaesenclast %xmm7, %xmm13, %xmm13 vpaddd %xmm2, %xmm6, %xmm7 vaesenclast %xmm3, %xmm14, %xmm14 vpaddd %xmm2, %xmm7, %xmm3 sub $6, %rdx cmp $6, %rdx jbe L216 add $96, %r14 jmp L217 L216: L217: cmp $0, %rdx jbe L218 movdqu %xmm9, -96(%rsi) vpxor %xmm15, %xmm1, %xmm9 movdqu %xmm10, -80(%rsi) movdqu %xmm0, %xmm10 movdqu %xmm11, -64(%rsi) movdqu %xmm5, %xmm11 movdqu %xmm12, -48(%rsi) movdqu %xmm6, %xmm12 movdqu %xmm13, -32(%rsi) movdqu %xmm7, %xmm13 movdqu %xmm14, -16(%rsi) movdqu %xmm3, %xmm14 movdqu 32(%rbp), %xmm7 jmp L219 L218: vpxor 16(%rbp), %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 L219: .balign 16 L213: cmp $0, %rdx ja L212 movdqu %xmm1, 32(%rbp) movdqu %xmm9, -96(%rsi) movdqu %xmm10, -80(%rsi) movdqu %xmm11, -64(%rsi) movdqu %xmm12, -48(%rsi) movdqu %xmm13, -32(%rsi) movdqu %xmm14, -16(%rsi) sub $128, %rcx L209: movdqu 32(%rbp), %xmm11 mov %rcx, %r8 mov 104(%rsp), %rax mov 112(%rsp), %rdi mov 120(%rsp), %rdx mov %rdx, %r14 mov $579005069656919567, %r12 pinsrq $0, %r12, %xmm9 mov $283686952306183, %r12 pinsrq $1, %r12, %xmm9 pshufb %xmm9, %xmm11 mov %rdi, %rbx mov %rdx, %r12 mov %rax, %rdi mov %rdi, %r11 jmp L221 .balign 16 L220: add $80, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 80(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 add $96, %r11 sub $6, %rdx .balign 16 L221: cmp $6, %rdx jae L220 cmp $0, %rdx jbe L222 mov %rdx, %r10 sub $1, %r10 imul $16, %r10 add %r10, %r11 movdqu -32(%r9), %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 cmp $1, %rdx jne L224 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 jmp L225 L224: sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 movdqu %xmm1, %xmm4 movdqu -16(%r9), %xmm1 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 movdqu %xmm1, %xmm5 cmp $2, %rdx je L226 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 16(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $3, %rdx je L228 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 32(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 cmp $4, %rdx je L230 sub $16, %r11 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu 0(%r11), %xmm0 pshufb %xmm9, %xmm0 vpxor %xmm1, %xmm4, %xmm4 movdqu 64(%r9), %xmm1 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 movdqu %xmm1, %xmm5 jmp L231 L230: L231: jmp L229 L228: L229: jmp L227 L226: L227: vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 vpxor %xmm1, %xmm4, %xmm4 vpxor %xmm2, %xmm6, %xmm6 vpxor %xmm3, %xmm6, %xmm6 vpxor %xmm5, %xmm7, %xmm7 L225: pxor %xmm3, %xmm3 mov $3254779904, %r10 pinsrd $3, %r10d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 jmp L223 L222: L223: mov %rbx, %rdi mov %r12, %rdx pxor %xmm10, %xmm10 mov $1, %rbx pinsrd $0, %ebx, %xmm10 mov %rax, %r11 mov %rdi, %r10 mov $0, %rbx jmp L233 .balign 16 L232: movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 movdqu 0(%r11), %xmm2 pxor %xmm0, %xmm2 movdqu %xmm2, 0(%r10) add $1, %rbx add $16, %r11 add $16, %r10 paddd %xmm10, %xmm11 .balign 16 L233: cmp %rdx, %rbx jne L232 add 96(%rsp), %r14 imul $16, %r14 mov 136(%rsp), %r13 cmp %r14, %r13 jbe L234 mov 128(%rsp), %rax mov %r13, %r10 and $15, %r10 movdqu 0(%rax), %xmm0 movdqu %xmm0, %xmm10 cmp $8, %r10 jae L236 mov $0, %rcx pinsrq $1, %rcx, %xmm0 mov %r10, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $0, %xmm0, %rcx and %r11, %rcx pinsrq $0, %rcx, %xmm0 jmp L237 L236: mov %r10, %rcx sub $8, %rcx shl $3, %rcx mov $1, %r11 shl %cl, %r11 sub $1, %r11 pextrq $1, %xmm0, %rcx and %r11, %rcx pinsrq $1, %rcx, %xmm0 L237: pshufb %xmm9, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu %xmm11, %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pxor %xmm0, %xmm10 movdqu %xmm10, 0(%rax) jmp L235 L234: L235: mov %r15, %r11 pxor %xmm0, %xmm0 mov %r11, %rax imul $8, %rax pinsrq $1, %rax, %xmm0 mov %r13, %rax imul $8, %rax pinsrq $0, %rax, %xmm0 movdqu -32(%r9), %xmm5 vpxor %xmm0, %xmm8, %xmm0 vpclmulqdq $0, %xmm5, %xmm0, %xmm1 vpclmulqdq $16, %xmm5, %xmm0, %xmm2 vpclmulqdq $1, %xmm5, %xmm0, %xmm3 vpclmulqdq $17, %xmm5, %xmm0, %xmm5 movdqu %xmm1, %xmm4 vpxor %xmm3, %xmm2, %xmm6 movdqu %xmm5, %xmm7 pxor %xmm3, %xmm3 mov $3254779904, %r11 pinsrd $3, %r11d, %xmm3 vpslldq $8, %xmm6, %xmm5 vpxor %xmm5, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm0 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpsrldq $8, %xmm6, %xmm6 vpxor %xmm6, %xmm7, %xmm7 vpxor %xmm0, %xmm4, %xmm4 vpalignr $8, %xmm4, %xmm4, %xmm8 vpclmulqdq $16, %xmm3, %xmm4, %xmm4 vpxor %xmm7, %xmm8, %xmm8 vpxor %xmm4, %xmm8, %xmm8 movdqu 0(%rbp), %xmm0 pshufb %xmm9, %xmm0 movdqu 0(%r8), %xmm2 pxor %xmm2, %xmm0 movdqu 16(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 32(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 48(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 64(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 80(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 96(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 112(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 128(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 144(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 160(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 176(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 192(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 208(%r8), %xmm2 aesenc %xmm2, %xmm0 movdqu 224(%r8), %xmm2 aesenclast %xmm2, %xmm0 pxor %xmm2, %xmm2 pshufb %xmm9, %xmm8 pxor %xmm0, %xmm8 mov 152(%rsp), %r15 movdqu 0(%r15), %xmm0 pcmpeqd %xmm8, %xmm0 pextrq $0, %xmm0, %rdx sub $18446744073709551615, %rdx mov $0, %rax adc $0, %rax pextrq $1, %xmm0, %rdx sub $18446744073709551615, %rdx mov $0, %rdx adc $0, %rdx add %rdx, %rax mov %rax, %rcx pop %rbx pop %rbp pop %rdi pop %rsi pop %r12 pop %r13 pop %r14 pop %r15 mov %rcx, %rax ret .section .note.GNU-stack,"",%progbits
verdict-x509/verdict
2,381
deps/libcrux/sys/hacl/c/vale/src/cpuid-x86_64-linux.S
.text .global check_aesni check_aesni: mov %rbx, %r9 mov $0, %rcx mov $1, %rax cpuid mov %rcx, %rax and $33554432, %rax shr $24, %rax and $2, %rcx and %rcx, %rax mov %r9, %rbx ret .global check_sha check_sha: mov %rbx, %r9 mov $7, %rax mov $0, %rcx cpuid and $536870912, %rbx mov %rbx, %rax mov %r9, %rbx ret .global check_adx_bmi2 check_adx_bmi2: mov %rbx, %r9 mov $7, %rax mov $0, %rcx cpuid mov %rbx, %rax and $524288, %rax shr $11, %rax and $256, %rbx and %rbx, %rax mov %r9, %rbx ret .global check_avx check_avx: mov %rbx, %r9 mov $0, %rcx mov $1, %rax cpuid mov %rcx, %rax and $268435456, %rax shr $27, %rax mov %r9, %rbx ret .global check_avx2 check_avx2: mov %rbx, %r9 mov $7, %rax mov $0, %rcx cpuid and $32, %rbx mov %rbx, %rax mov %r9, %rbx ret .global check_movbe check_movbe: mov %rbx, %r9 mov $0, %rcx mov $1, %rax cpuid mov %rcx, %rax and $4194304, %rax shr $21, %rax mov %r9, %rbx ret .global check_sse check_sse: mov %rbx, %r9 mov $0, %rcx mov $1, %rax cpuid mov %rcx, %rax and $524288, %rax and $512, %rcx and $67108864, %rdx shr $10, %rax shr $17, %rdx and %rdx, %rax and %rcx, %rax mov %r9, %rbx ret .global check_rdrand check_rdrand: mov %rbx, %r9 mov $0, %rcx mov $1, %rax cpuid mov %rcx, %rax and $1073741824, %rax shr $29, %rax mov %r9, %rbx ret .global check_avx512 check_avx512: mov %rbx, %r9 mov $7, %rax mov $0, %rcx cpuid mov %rbx, %rax mov %rbx, %r10 mov %rbx, %r11 and $65536, %rbx and $131072, %rax and $1073741824, %r10 shr $1, %rax shr $14, %r10 and %rbx, %rax mov $2147483648, %rbx and %rbx, %r11 shr $15, %r11 and %r10, %rax and %r11, %rax mov %r9, %rbx ret .global check_osxsave check_osxsave: mov %rbx, %r9 mov $0, %rcx mov $1, %rax cpuid mov %rcx, %rax and $134217728, %rax shr $26, %rax mov %r9, %rbx ret .global check_avx_xcr0 check_avx_xcr0: mov $0, %rcx xgetbv mov %rax, %rcx and $4, %rax shr $1, %rax and $2, %rcx and %rcx, %rax ret .global check_avx512_xcr0 check_avx512_xcr0: mov $0, %rcx xgetbv mov %rax, %rcx mov %rax, %rdx and $32, %rax and $64, %rcx and $128, %rdx shr $2, %rdx shr $1, %rcx and %rdx, %rax and %rcx, %rax ret .section .note.GNU-stack,"",%progbits
verdict-x509/verdict
31,349
deps/libcrux/sys/libjade/jazz/sha3_512_ref.s
.att_syntax .text .p2align 5 .globl _jade_hash_sha3_512_amd64_ref .globl jade_hash_sha3_512_amd64_ref _jade_hash_sha3_512_amd64_ref: jade_hash_sha3_512_amd64_ref: movq %rsp, %rax leaq -48(%rsp), %rsp andq $-8, %rsp movq %rax, 40(%rsp) movq %rbx, (%rsp) movq %rbp, 8(%rsp) movq %r12, 16(%rsp) movq %r13, 24(%rsp) movq %r14, 32(%rsp) movq $64, %rcx movb $6, %r8b movq $72, %rax leaq -448(%rsp), %rsp call L_keccak1600_ref$1 Ljade_hash_sha3_512_amd64_ref$1: leaq 448(%rsp), %rsp xorq %rax, %rax movq (%rsp), %rbx movq 8(%rsp), %rbp movq 16(%rsp), %r12 movq 24(%rsp), %r13 movq 32(%rsp), %r14 movq 40(%rsp), %rsp ret L_keccak1600_ref$1: movq %rdi, 8(%rsp) movq %rcx, 16(%rsp) movb %r8b, 448(%rsp) xorq %rcx, %rcx movq %rcx, 48(%rsp) movq %rcx, 56(%rsp) movq %rcx, 64(%rsp) movq %rcx, 72(%rsp) movq %rcx, 80(%rsp) movq %rcx, 88(%rsp) movq %rcx, 96(%rsp) movq %rcx, 104(%rsp) movq %rcx, 112(%rsp) movq %rcx, 120(%rsp) movq %rcx, 128(%rsp) movq %rcx, 136(%rsp) movq %rcx, 144(%rsp) movq %rcx, 152(%rsp) movq %rcx, 160(%rsp) movq %rcx, 168(%rsp) movq %rcx, 176(%rsp) movq %rcx, 184(%rsp) movq %rcx, 192(%rsp) movq %rcx, 200(%rsp) movq %rcx, 208(%rsp) movq %rcx, 216(%rsp) movq %rcx, 224(%rsp) movq %rcx, 232(%rsp) movq %rcx, 240(%rsp) jmp L_keccak1600_ref$16 L_keccak1600_ref$17: movq %rax, %rcx shrq $3, %rcx movq $0, %rdi jmp L_keccak1600_ref$19 L_keccak1600_ref$20: movq (%rsi,%rdi,8), %r8 xorq %r8, 48(%rsp,%rdi,8) incq %rdi L_keccak1600_ref$19: cmpq %rcx, %rdi jb L_keccak1600_ref$20 addq %rax, %rsi subq %rax, %rdx movq %rsi, 24(%rsp) movq %rdx, 32(%rsp) movq %rax, 40(%rsp) leaq glob_data + 0(%rip), %rax movq $0, %rcx L_keccak1600_ref$18: movq (%rax,%rcx,8), %r10 movq 48(%rsp), %r9 movq 56(%rsp), %r8 movq 64(%rsp), %r11 movq 72(%rsp), %rbx movq 80(%rsp), %rbp xorq 88(%rsp), %r9 xorq 96(%rsp), %r8 xorq 104(%rsp), %r11 xorq 112(%rsp), %rbx xorq 120(%rsp), %rbp xorq 128(%rsp), %r9 xorq 136(%rsp), %r8 xorq 144(%rsp), %r11 xorq 152(%rsp), %rbx xorq 160(%rsp), %rbp xorq 168(%rsp), %r9 xorq 176(%rsp), %r8 xorq 184(%rsp), %r11 xorq 192(%rsp), %rbx xorq 200(%rsp), %rbp xorq 208(%rsp), %r9 xorq 216(%rsp), %r8 xorq 224(%rsp), %r11 xorq 232(%rsp), %rbx xorq 240(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 48(%rsp), %r11 xorq %rdx, %r11 movq 96(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 144(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 192(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 240(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 248(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 256(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 264(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 272(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 280(%rsp) movq 72(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 120(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 128(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 176(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 224(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 288(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 296(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 304(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 312(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 320(%rsp) movq 56(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 104(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 152(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 200(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 208(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 328(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 336(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 344(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 352(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 360(%rsp) movq 80(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 88(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 136(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 184(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 232(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 368(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 376(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 384(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 392(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 400(%rsp) movq 64(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 112(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 160(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 168(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 216(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 408(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 416(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 424(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 432(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 440(%rsp) movq 8(%rax,%rcx,8), %r10 movq 248(%rsp), %r9 movq 256(%rsp), %r8 movq 264(%rsp), %r11 movq 272(%rsp), %rbx movq 280(%rsp), %rbp xorq 288(%rsp), %r9 xorq 296(%rsp), %r8 xorq 304(%rsp), %r11 xorq 312(%rsp), %rbx xorq 320(%rsp), %rbp xorq 328(%rsp), %r9 xorq 336(%rsp), %r8 xorq 344(%rsp), %r11 xorq 352(%rsp), %rbx xorq 360(%rsp), %rbp xorq 368(%rsp), %r9 xorq 376(%rsp), %r8 xorq 384(%rsp), %r11 xorq 392(%rsp), %rbx xorq 400(%rsp), %rbp xorq 408(%rsp), %r9 xorq 416(%rsp), %r8 xorq 424(%rsp), %r11 xorq 432(%rsp), %rbx xorq 440(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 248(%rsp), %r11 xorq %rdx, %r11 movq 296(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 344(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 392(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 440(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 48(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 56(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 64(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 72(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 80(%rsp) movq 272(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 320(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 328(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 376(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 424(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 88(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 96(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 104(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 112(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 120(%rsp) movq 256(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 304(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 352(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 400(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 408(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 128(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 136(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 144(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 152(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 160(%rsp) movq 280(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 288(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 336(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 384(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 432(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 168(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 176(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 184(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 192(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 200(%rsp) movq 264(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 312(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 360(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 368(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 416(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 208(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 216(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 224(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 232(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 240(%rsp) addq $2, %rcx cmpq $23, %rcx jb L_keccak1600_ref$18 movq 24(%rsp), %rsi movq 32(%rsp), %rdx movq 40(%rsp), %rax L_keccak1600_ref$16: cmpq %rax, %rdx jnb L_keccak1600_ref$17 movb 448(%rsp), %cl movq %rdx, %rdi shrq $3, %rdi movq $0, %r8 jmp L_keccak1600_ref$14 L_keccak1600_ref$15: movq (%rsi,%r8,8), %r9 xorq %r9, 48(%rsp,%r8,8) incq %r8 L_keccak1600_ref$14: cmpq %rdi, %r8 jb L_keccak1600_ref$15 shlq $3, %r8 jmp L_keccak1600_ref$12 L_keccak1600_ref$13: movb (%rsi,%r8), %dil xorb %dil, 48(%rsp,%r8) incq %r8 L_keccak1600_ref$12: cmpq %rdx, %r8 jb L_keccak1600_ref$13 xorb %cl, 48(%rsp,%r8) movq %rax, %rcx addq $-1, %rcx xorb $-128, 48(%rsp,%rcx) movq 16(%rsp), %rdx jmp L_keccak1600_ref$7 L_keccak1600_ref$8: movq %rdx, 16(%rsp) movq %rax, 40(%rsp) leaq glob_data + 0(%rip), %rax movq $0, %rcx L_keccak1600_ref$11: movq (%rax,%rcx,8), %r10 movq 48(%rsp), %r9 movq 56(%rsp), %r8 movq 64(%rsp), %r11 movq 72(%rsp), %rbx movq 80(%rsp), %rbp xorq 88(%rsp), %r9 xorq 96(%rsp), %r8 xorq 104(%rsp), %r11 xorq 112(%rsp), %rbx xorq 120(%rsp), %rbp xorq 128(%rsp), %r9 xorq 136(%rsp), %r8 xorq 144(%rsp), %r11 xorq 152(%rsp), %rbx xorq 160(%rsp), %rbp xorq 168(%rsp), %r9 xorq 176(%rsp), %r8 xorq 184(%rsp), %r11 xorq 192(%rsp), %rbx xorq 200(%rsp), %rbp xorq 208(%rsp), %r9 xorq 216(%rsp), %r8 xorq 224(%rsp), %r11 xorq 232(%rsp), %rbx xorq 240(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 48(%rsp), %r11 xorq %rdx, %r11 movq 96(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 144(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 192(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 240(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 248(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 256(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 264(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 272(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 280(%rsp) movq 72(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 120(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 128(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 176(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 224(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 288(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 296(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 304(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 312(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 320(%rsp) movq 56(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 104(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 152(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 200(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 208(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 328(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 336(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 344(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 352(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 360(%rsp) movq 80(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 88(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 136(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 184(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 232(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 368(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 376(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 384(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 392(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 400(%rsp) movq 64(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 112(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 160(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 168(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 216(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 408(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 416(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 424(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 432(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 440(%rsp) movq 8(%rax,%rcx,8), %r10 movq 248(%rsp), %r9 movq 256(%rsp), %r8 movq 264(%rsp), %r11 movq 272(%rsp), %rbx movq 280(%rsp), %rbp xorq 288(%rsp), %r9 xorq 296(%rsp), %r8 xorq 304(%rsp), %r11 xorq 312(%rsp), %rbx xorq 320(%rsp), %rbp xorq 328(%rsp), %r9 xorq 336(%rsp), %r8 xorq 344(%rsp), %r11 xorq 352(%rsp), %rbx xorq 360(%rsp), %rbp xorq 368(%rsp), %r9 xorq 376(%rsp), %r8 xorq 384(%rsp), %r11 xorq 392(%rsp), %rbx xorq 400(%rsp), %rbp xorq 408(%rsp), %r9 xorq 416(%rsp), %r8 xorq 424(%rsp), %r11 xorq 432(%rsp), %rbx xorq 440(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 248(%rsp), %r11 xorq %rdx, %r11 movq 296(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 344(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 392(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 440(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 48(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 56(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 64(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 72(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 80(%rsp) movq 272(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 320(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 328(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 376(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 424(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 88(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 96(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 104(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 112(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 120(%rsp) movq 256(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 304(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 352(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 400(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 408(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 128(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 136(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 144(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 152(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 160(%rsp) movq 280(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 288(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 336(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 384(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 432(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 168(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 176(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 184(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 192(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 200(%rsp) movq 264(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 312(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 360(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 368(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 416(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 208(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 216(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 224(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 232(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 240(%rsp) addq $2, %rcx cmpq $23, %rcx jb L_keccak1600_ref$11 movq 8(%rsp), %rcx movq 16(%rsp), %rdx movq 40(%rsp), %rax movq %rax, %rsi shrq $3, %rsi movq $0, %rdi jmp L_keccak1600_ref$9 L_keccak1600_ref$10: movq 48(%rsp,%rdi,8), %r8 movq %r8, (%rcx,%rdi,8) incq %rdi L_keccak1600_ref$9: cmpq %rsi, %rdi jb L_keccak1600_ref$10 addq %rax, %rcx subq %rax, %rdx movq %rcx, 8(%rsp) L_keccak1600_ref$7: cmpq %rax, %rdx jnbe L_keccak1600_ref$8 movq %rdx, 40(%rsp) leaq glob_data + 0(%rip), %rax movq $0, %rcx L_keccak1600_ref$6: movq (%rax,%rcx,8), %r10 movq 48(%rsp), %r9 movq 56(%rsp), %r8 movq 64(%rsp), %r11 movq 72(%rsp), %rbx movq 80(%rsp), %rbp xorq 88(%rsp), %r9 xorq 96(%rsp), %r8 xorq 104(%rsp), %r11 xorq 112(%rsp), %rbx xorq 120(%rsp), %rbp xorq 128(%rsp), %r9 xorq 136(%rsp), %r8 xorq 144(%rsp), %r11 xorq 152(%rsp), %rbx xorq 160(%rsp), %rbp xorq 168(%rsp), %r9 xorq 176(%rsp), %r8 xorq 184(%rsp), %r11 xorq 192(%rsp), %rbx xorq 200(%rsp), %rbp xorq 208(%rsp), %r9 xorq 216(%rsp), %r8 xorq 224(%rsp), %r11 xorq 232(%rsp), %rbx xorq 240(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 48(%rsp), %r11 xorq %rdx, %r11 movq 96(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 144(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 192(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 240(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 248(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 256(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 264(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 272(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 280(%rsp) movq 72(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 120(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 128(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 176(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 224(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 288(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 296(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 304(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 312(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 320(%rsp) movq 56(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 104(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 152(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 200(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 208(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 328(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 336(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 344(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 352(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 360(%rsp) movq 80(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 88(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 136(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 184(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 232(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 368(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 376(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 384(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 392(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 400(%rsp) movq 64(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 112(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 160(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 168(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 216(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 408(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 416(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 424(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 432(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 440(%rsp) movq 8(%rax,%rcx,8), %r10 movq 248(%rsp), %r9 movq 256(%rsp), %r8 movq 264(%rsp), %r11 movq 272(%rsp), %rbx movq 280(%rsp), %rbp xorq 288(%rsp), %r9 xorq 296(%rsp), %r8 xorq 304(%rsp), %r11 xorq 312(%rsp), %rbx xorq 320(%rsp), %rbp xorq 328(%rsp), %r9 xorq 336(%rsp), %r8 xorq 344(%rsp), %r11 xorq 352(%rsp), %rbx xorq 360(%rsp), %rbp xorq 368(%rsp), %r9 xorq 376(%rsp), %r8 xorq 384(%rsp), %r11 xorq 392(%rsp), %rbx xorq 400(%rsp), %rbp xorq 408(%rsp), %r9 xorq 416(%rsp), %r8 xorq 424(%rsp), %r11 xorq 432(%rsp), %rbx xorq 440(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 248(%rsp), %r11 xorq %rdx, %r11 movq 296(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 344(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 392(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 440(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 48(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 56(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 64(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 72(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 80(%rsp) movq 272(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 320(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 328(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 376(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 424(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 88(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 96(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 104(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 112(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 120(%rsp) movq 256(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 304(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 352(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 400(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 408(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 128(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 136(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 144(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 152(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 160(%rsp) movq 280(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 288(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 336(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 384(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 432(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 168(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 176(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 184(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 192(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 200(%rsp) movq 264(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 312(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 360(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 368(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 416(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 208(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 216(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 224(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 232(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 240(%rsp) addq $2, %rcx cmpq $23, %rcx jb L_keccak1600_ref$6 movq 8(%rsp), %rax movq 40(%rsp), %rcx movq %rcx, %rdx shrq $3, %rdx movq $0, %rsi jmp L_keccak1600_ref$4 L_keccak1600_ref$5: movq 48(%rsp,%rsi,8), %rdi movq %rdi, (%rax,%rsi,8) incq %rsi L_keccak1600_ref$4: cmpq %rdx, %rsi jb L_keccak1600_ref$5 shlq $3, %rsi jmp L_keccak1600_ref$2 L_keccak1600_ref$3: movb 48(%rsp,%rsi), %dl movb %dl, (%rax,%rsi) incq %rsi L_keccak1600_ref$2: cmpq %rcx, %rsi jb L_keccak1600_ref$3 ret .data .p2align 5 _glob_data: glob_data: .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128
verdict-x509/verdict
34,209
deps/libcrux/sys/libjade/jazz/sha3_256_avx2.s
.att_syntax .text .p2align 5 .globl _jade_hash_sha3_256_amd64_avx2 .globl jade_hash_sha3_256_amd64_avx2 _jade_hash_sha3_256_amd64_avx2: jade_hash_sha3_256_amd64_avx2: movq %rsp, %rax leaq -40(%rsp), %rsp andq $-32, %rsp movq %rax, 32(%rsp) movq %rbx, (%rsp) movq %rbp, 8(%rsp) movq %r12, 16(%rsp) movq %r13, 24(%rsp) movq $32, %r9 movb $6, %al movq $136, %rcx leaq -224(%rsp), %rsp leaq Ljade_hash_sha3_256_amd64_avx2$1(%rip), %r10 jmp L_keccak1600_avx2$1 Ljade_hash_sha3_256_amd64_avx2$1: leaq 224(%rsp), %rsp xorq %rax, %rax movq (%rsp), %rbx movq 8(%rsp), %rbp movq 16(%rsp), %r12 movq 24(%rsp), %r13 movq 32(%rsp), %rsp ret L_keccak1600_avx2$1: vpxor %ymm6, %ymm6, %ymm6 vpxor %ymm3, %ymm3, %ymm3 vpxor %ymm4, %ymm4, %ymm4 vpxor %ymm0, %ymm0, %ymm0 vpxor %ymm5, %ymm5, %ymm5 vpxor %ymm1, %ymm1, %ymm1 vpxor %ymm2, %ymm2, %ymm2 leaq glob_data + 1152(%rip), %r8 vpxor %ymm7, %ymm7, %ymm7 vmovdqu %ymm7, (%rsp) vmovdqu %ymm7, 32(%rsp) vmovdqu %ymm7, 64(%rsp) vmovdqu %ymm7, 96(%rsp) vmovdqu %ymm7, 128(%rsp) vmovdqu %ymm7, 160(%rsp) vmovdqu %ymm7, 192(%rsp) jmp L_keccak1600_avx2$16 L_keccak1600_avx2$17: movq %rcx, %r11 shrq $3, %r11 movq $0, %rbx jmp L_keccak1600_avx2$19 L_keccak1600_avx2$20: movq (%rsi,%rbx,8), %rbp movq (%r8,%rbx,8), %r12 movq %rbp, (%rsp,%r12,8) incq %rbx L_keccak1600_avx2$19: cmpq %r11, %rbx jb L_keccak1600_avx2$20 movq (%rsp), %r11 movq %r11, 8(%rsp) movq %r11, 16(%rsp) movq %r11, 24(%rsp) vpxor (%rsp), %ymm6, %ymm6 vpxor 32(%rsp), %ymm3, %ymm3 vpxor 64(%rsp), %ymm4, %ymm4 vpxor 96(%rsp), %ymm0, %ymm0 vpxor 128(%rsp), %ymm5, %ymm5 vpxor 160(%rsp), %ymm1, %ymm1 vpxor 192(%rsp), %ymm2, %ymm2 addq %rcx, %rsi subq %rcx, %rdx leaq glob_data + 384(%rip), %r11 movq $0, %rbx leaq glob_data + 192(%rip), %rbp leaq glob_data + 0(%rip), %r12 movq $24, %r13 L_keccak1600_avx2$18: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rbp), %ymm4, %ymm7 vpsrlvq (%r12), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%rbp), %ymm0, %ymm7 vpsrlvq 64(%r12), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%rbp), %ymm5, %ymm7 vpsrlvq 96(%r12), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%rbp), %ymm1, %ymm5 vpsrlvq 128(%r12), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%rbp), %ymm2, %ymm0 vpsrlvq 160(%r12), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%rbp), %ymm0, %ymm1 vpsrlvq 32(%r12), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%r11,%rbx), %ymm6, %ymm6 addq $32, %rbx decq %r13 jne L_keccak1600_avx2$18 L_keccak1600_avx2$16: cmpq %rcx, %rdx jnb L_keccak1600_avx2$17 vpxor %ymm7, %ymm7, %ymm7 vmovdqu %ymm7, (%rsp) vmovdqu %ymm7, 32(%rsp) vmovdqu %ymm7, 64(%rsp) vmovdqu %ymm7, 96(%rsp) vmovdqu %ymm7, 128(%rsp) vmovdqu %ymm7, 160(%rsp) vmovdqu %ymm7, 192(%rsp) movq %rdx, %r11 shrq $3, %r11 movq $0, %rbx jmp L_keccak1600_avx2$14 L_keccak1600_avx2$15: movq (%rsi,%rbx,8), %rbp movq (%r8,%rbx,8), %r12 movq %rbp, (%rsp,%r12,8) incq %rbx L_keccak1600_avx2$14: cmpq %r11, %rbx jb L_keccak1600_avx2$15 movq (%r8,%rbx,8), %r11 shlq $3, %r11 shlq $3, %rbx jmp L_keccak1600_avx2$12 L_keccak1600_avx2$13: movb (%rsi,%rbx), %bpl movb %bpl, (%rsp,%r11) incq %rbx incq %r11 L_keccak1600_avx2$12: cmpq %rdx, %rbx jb L_keccak1600_avx2$13 movb %al, (%rsp,%r11) movq %rcx, %rax addq $-1, %rax shrq $3, %rax movq (%r8,%rax,8), %rax shlq $3, %rax movq %rcx, %rdx addq $-1, %rdx andq $7, %rdx addq %rdx, %rax xorb $-128, (%rsp,%rax) movq (%rsp), %rax movq %rax, 8(%rsp) movq %rax, 16(%rsp) movq %rax, 24(%rsp) vpxor (%rsp), %ymm6, %ymm6 vpxor 32(%rsp), %ymm3, %ymm3 vpxor 64(%rsp), %ymm4, %ymm4 vpxor 96(%rsp), %ymm0, %ymm0 vpxor 128(%rsp), %ymm5, %ymm5 vpxor 160(%rsp), %ymm1, %ymm1 vpxor 192(%rsp), %ymm2, %ymm2 leaq glob_data + 1152(%rip), %rax jmp L_keccak1600_avx2$7 L_keccak1600_avx2$8: leaq glob_data + 384(%rip), %rdx movq $0, %rsi leaq glob_data + 192(%rip), %r8 leaq glob_data + 0(%rip), %r11 movq $24, %rbx L_keccak1600_avx2$11: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%r8), %ymm4, %ymm7 vpsrlvq (%r11), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%r8), %ymm0, %ymm7 vpsrlvq 64(%r11), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%r8), %ymm5, %ymm7 vpsrlvq 96(%r11), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%r8), %ymm1, %ymm5 vpsrlvq 128(%r11), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%r8), %ymm2, %ymm0 vpsrlvq 160(%r11), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%r8), %ymm0, %ymm1 vpsrlvq 32(%r11), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%rdx,%rsi), %ymm6, %ymm6 addq $32, %rsi decq %rbx jne L_keccak1600_avx2$11 vmovdqu %ymm6, (%rsp) vmovdqu %ymm3, 32(%rsp) vmovdqu %ymm4, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm5, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) movq %rcx, %rdx shrq $3, %rdx movq $0, %rsi jmp L_keccak1600_avx2$9 L_keccak1600_avx2$10: movq (%rax,%rsi,8), %r8 movq (%rsp,%r8,8), %r8 movq %r8, (%rdi,%rsi,8) incq %rsi L_keccak1600_avx2$9: cmpq %rdx, %rsi jb L_keccak1600_avx2$10 addq %rcx, %rdi subq %rcx, %r9 L_keccak1600_avx2$7: cmpq %rcx, %r9 jnbe L_keccak1600_avx2$8 leaq glob_data + 384(%rip), %rcx movq $0, %rdx leaq glob_data + 192(%rip), %rsi leaq glob_data + 0(%rip), %r8 movq $24, %r11 L_keccak1600_avx2$6: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm4, %ymm7 vpsrlvq (%r8), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%rsi), %ymm0, %ymm7 vpsrlvq 64(%r8), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%rsi), %ymm5, %ymm7 vpsrlvq 96(%r8), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%rsi), %ymm1, %ymm5 vpsrlvq 128(%r8), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%rsi), %ymm2, %ymm0 vpsrlvq 160(%r8), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%rsi), %ymm0, %ymm1 vpsrlvq 32(%r8), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%rcx,%rdx), %ymm6, %ymm6 addq $32, %rdx decq %r11 jne L_keccak1600_avx2$6 vmovdqu %ymm6, (%rsp) vmovdqu %ymm3, 32(%rsp) vmovdqu %ymm4, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm5, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) movq %r9, %rcx shrq $3, %rcx movq $0, %rdx jmp L_keccak1600_avx2$4 L_keccak1600_avx2$5: movq (%rax,%rdx,8), %rsi movq (%rsp,%rsi,8), %rsi movq %rsi, (%rdi,%rdx,8) incq %rdx L_keccak1600_avx2$4: cmpq %rcx, %rdx jb L_keccak1600_avx2$5 movq (%rax,%rdx,8), %rax shlq $3, %rdx shlq $3, %rax jmp L_keccak1600_avx2$2 L_keccak1600_avx2$3: movb (%rsp,%rax), %cl movb %cl, (%rdi,%rdx) incq %rdx incq %rax L_keccak1600_avx2$2: cmpq %r9, %rdx jb L_keccak1600_avx2$3 jmp *%r10 .data .p2align 5 _glob_data: glob_data: .byte 61 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 46 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 28 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 23 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 63 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 36 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 37 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 19 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 58 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 54 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 56 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 62 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 49 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 39 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 44 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 43 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 50 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 18 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 36 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 41 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 62 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 28 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 27 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 45 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 6 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 56 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 39 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 61 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 55 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 15 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 44 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 43 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 14 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 4 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 5 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 6 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 7 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 24 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 13 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 18 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 23 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 16 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 22 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 15 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 11 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 12 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 26 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 19 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 17 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 14 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 27 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0
verdict-x509/verdict
36,058
deps/libcrux/sys/libjade/jazz/poly1305_avx.s
.att_syntax .text .p2align 5 .globl _jade_onetimeauth_poly1305_amd64_avx_verify .globl jade_onetimeauth_poly1305_amd64_avx_verify .globl _jade_onetimeauth_poly1305_amd64_avx .globl jade_onetimeauth_poly1305_amd64_avx _jade_onetimeauth_poly1305_amd64_avx_verify: jade_onetimeauth_poly1305_amd64_avx_verify: movq %rsp, %rax leaq -600(%rsp), %rsp andq $-16, %rsp movq %rax, 592(%rsp) movq %rbx, 544(%rsp) movq %rbp, 552(%rsp) movq %r12, 560(%rsp) movq %r13, 568(%rsp) movq %r14, 576(%rsp) movq %r15, 584(%rsp) movq %rdx, %r14 movq %rcx, %r15 cmpq $1024, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx_verify$1 movq $0, %r8 movq $0, %r12 movq $0, %r13 movq (%r15), %rbp movq 8(%r15), %rbx movq $1152921487695413247, %rax andq %rax, %rbp movq $1152921487695413244, %rax andq %rax, %rbx movq %rbx, %r9 shrq $2, %r9 addq %rbx, %r9 addq $16, %r15 jmp Ljade_onetimeauth_poly1305_amd64_avx_verify$9 Ljade_onetimeauth_poly1305_amd64_avx_verify$10: addq (%rsi), %r8 adcq 8(%rsi), %r12 adcq $1, %r13 movq %r9, %r10 imulq %r13, %r10 imulq %rbp, %r13 movq %rbp, %rax mulq %r8 movq %rax, %rcx movq %rdx, %r11 movq %rbp, %rax mulq %r12 addq %rax, %r11 adcq %rdx, %r13 movq %r9, %rax mulq %r12 movq %rdx, %r12 addq %r10, %r12 movq %rax, %r10 movq %rbx, %rax mulq %r8 addq %r10, %rcx adcq %rax, %r11 adcq %rdx, %r13 movq $-4, %r8 movq %r13, %rax shrq $2, %rax andq %r13, %r8 addq %rax, %r8 andq $3, %r13 addq %rcx, %r8 adcq %r11, %r12 adcq $0, %r13 addq $16, %rsi addq $-16, %r14 Ljade_onetimeauth_poly1305_amd64_avx_verify$9: cmpq $16, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx_verify$10 cmpq $0, %r14 jbe Ljade_onetimeauth_poly1305_amd64_avx_verify$8 xorq %rcx, %rcx movq %r14, %rax andq $7, %rax shlq $3, %rax shrq $3, %r14 movq %r14, %rdx xorq $1, %rdx movq %r14, %r10 addq $-1, %r10 movq %rax, %r11 andq %r10, %r11 xorq %r11, %rcx xorq %r11, %rax shlq %cl, %rdx movq %rax, %rcx shlq %cl, %r14 movq %rdx, %rax movq %r14, %rcx subq $1, %rax sbbq $0, %rcx movq (%rsi), %r10 andq %rax, %r10 orq %rdx, %r10 movq 8(%rsi), %rax andq %rcx, %rax orq %r14, %rax addq %r10, %r8 adcq %rax, %r12 adcq $0, %r13 movq %r9, %rsi imulq %r13, %rsi imulq %rbp, %r13 movq %rbp, %rax mulq %r8 movq %rax, %rcx movq %rdx, %r10 movq %rbp, %rax mulq %r12 addq %rax, %r10 adcq %rdx, %r13 movq %r9, %rax mulq %r12 movq %rdx, %r12 addq %rsi, %r12 movq %rax, %rsi movq %rbx, %rax mulq %r8 addq %rsi, %rcx adcq %rax, %r10 adcq %rdx, %r13 movq $-4, %r8 movq %r13, %rax shrq $2, %rax andq %r13, %r8 addq %rax, %r8 andq $3, %r13 addq %rcx, %r8 adcq %r10, %r12 adcq $0, %r13 Ljade_onetimeauth_poly1305_amd64_avx_verify$8: movq %r8, %rax movq %r12, %rcx addq $5, %rax adcq $0, %rcx adcq $0, %r13 shrq $2, %r13 negq %r13 xorq %r8, %rax xorq %r12, %rcx andq %r13, %rax andq %r13, %rcx xorq %r8, %rax xorq %r12, %rcx movq (%r15), %rdx movq 8(%r15), %rsi addq %rdx, %rax adcq %rsi, %rcx jmp Ljade_onetimeauth_poly1305_amd64_avx_verify$2 Ljade_onetimeauth_poly1305_amd64_avx_verify$1: movq (%r15), %rbp movq 8(%r15), %r13 movq $1152921487695413247, %rax andq %rax, %rbp movq $1152921487695413244, %rax andq %rax, %r13 movq %r13, %r12 shrq $2, %r12 addq %r13, %r12 addq $16, %r15 movq %rbp, %r8 movq %r13, %r11 movq $0, %rbx movq %r8, %rax andq $67108863, %rax movq %rax, 232(%rsp) movq %r8, %rax shrq $26, %rax andq $67108863, %rax movq %rax, 248(%rsp) movq %r8, %rax shrdq $52, %r11, %rax movq %rax, %rcx andq $67108863, %rax movq %rax, 264(%rsp) shrq $26, %rcx andq $67108863, %rcx movq %rcx, 280(%rsp) movq %r11, %rax shrdq $40, %rbx, %rax movq %rax, 296(%rsp) movq %r12, %r10 imulq %rbx, %r10 imulq %rbp, %rbx movq %rbp, %rax mulq %r8 movq %rax, %rcx movq %rdx, %r9 movq %rbp, %rax mulq %r11 addq %rax, %r9 adcq %rdx, %rbx movq %r12, %rax mulq %r11 movq %rdx, %r11 addq %r10, %r11 movq %rax, %r10 movq %r13, %rax mulq %r8 addq %r10, %rcx adcq %rax, %r9 adcq %rdx, %rbx movq $-4, %r8 movq %rbx, %rax shrq $2, %rax andq %rbx, %r8 addq %rax, %r8 andq $3, %rbx addq %rcx, %r8 adcq %r9, %r11 adcq $0, %rbx movq %r8, %rax andq $67108863, %rax movq %rax, 224(%rsp) movq %r8, %rax shrq $26, %rax andq $67108863, %rax movq %rax, 240(%rsp) movq %r8, %rax shrdq $52, %r11, %rax movq %rax, %rcx andq $67108863, %rax movq %rax, 256(%rsp) shrq $26, %rcx andq $67108863, %rcx movq %rcx, 272(%rsp) movq %r11, %rax shrdq $40, %rbx, %rax movq %rax, 288(%rsp) vpbroadcastq glob_data + 16(%rip), %xmm0 vpmuludq 240(%rsp), %xmm0, %xmm1 vmovdqu %xmm1, 32(%rsp) vpmuludq 256(%rsp), %xmm0, %xmm1 vmovdqu %xmm1, 48(%rsp) vpmuludq 272(%rsp), %xmm0, %xmm1 vmovdqu %xmm1, 64(%rsp) vpmuludq 288(%rsp), %xmm0, %xmm0 vmovdqu %xmm0, 80(%rsp) vpbroadcastq 224(%rsp), %xmm0 vmovdqu %xmm0, 304(%rsp) vpbroadcastq 240(%rsp), %xmm0 vmovdqu %xmm0, 320(%rsp) vpbroadcastq 256(%rsp), %xmm0 vmovdqu %xmm0, 336(%rsp) vpbroadcastq 272(%rsp), %xmm0 vmovdqu %xmm0, 352(%rsp) vpbroadcastq 288(%rsp), %xmm0 vmovdqu %xmm0, 368(%rsp) vpbroadcastq 32(%rsp), %xmm0 vmovdqu %xmm0, 96(%rsp) vpbroadcastq 48(%rsp), %xmm0 vmovdqu %xmm0, 112(%rsp) vpbroadcastq 64(%rsp), %xmm0 vmovdqu %xmm0, 128(%rsp) vpbroadcastq 80(%rsp), %xmm0 vmovdqu %xmm0, 144(%rsp) movq %r12, %r10 imulq %rbx, %r10 imulq %rbp, %rbx movq %rbp, %rax mulq %r8 movq %rax, %rcx movq %rdx, %r9 movq %rbp, %rax mulq %r11 addq %rax, %r9 adcq %rdx, %rbx movq %r12, %rax mulq %r11 movq %rdx, %r11 addq %r10, %r11 movq %rax, %r10 movq %r13, %rax mulq %r8 addq %r10, %rcx adcq %rax, %r9 adcq %rdx, %rbx movq $-4, %r8 movq %rbx, %rax shrq $2, %rax andq %rbx, %r8 addq %rax, %r8 andq $3, %rbx addq %rcx, %r8 adcq %r9, %r11 adcq $0, %rbx movq %r12, %r9 imulq %rbx, %r9 imulq %rbp, %rbx movq %rbp, %rax mulq %r8 movq %rax, %rcx movq %rdx, %r10 movq %rbp, %rax mulq %r11 addq %rax, %r10 adcq %rdx, %rbx movq %r12, %rax mulq %r11 movq %rdx, %r11 addq %r9, %r11 movq %rax, %r9 movq %r13, %rax mulq %r8 addq %r9, %rcx adcq %rax, %r10 adcq %rdx, %rbx movq $-4, %rax movq %rbx, %rdx shrq $2, %rdx andq %rbx, %rax addq %rdx, %rax andq $3, %rbx addq %rcx, %rax adcq %r10, %r11 adcq $0, %rbx movq %rax, %rcx andq $67108863, %rcx movq %rcx, 384(%rsp) movq %rax, %rcx shrq $26, %rcx andq $67108863, %rcx movq %rcx, 400(%rsp) shrdq $52, %r11, %rax movq %rax, %rcx andq $67108863, %rax movq %rax, 416(%rsp) shrq $26, %rcx andq $67108863, %rcx movq %rcx, 432(%rsp) shrdq $40, %rbx, %r11 movq %r11, 448(%rsp) movq 384(%rsp), %rax movq %rax, 392(%rsp) movq 400(%rsp), %rax movq %rax, 408(%rsp) movq 416(%rsp), %rax movq %rax, 424(%rsp) movq 432(%rsp), %rax movq %rax, 440(%rsp) movq 448(%rsp), %rax movq %rax, 456(%rsp) vpbroadcastq glob_data + 16(%rip), %xmm0 vpmuludq 400(%rsp), %xmm0, %xmm1 vmovdqu %xmm1, 160(%rsp) vpmuludq 416(%rsp), %xmm0, %xmm1 vmovdqu %xmm1, 176(%rsp) vpmuludq 432(%rsp), %xmm0, %xmm1 vmovdqu %xmm1, 192(%rsp) vpmuludq 448(%rsp), %xmm0, %xmm0 vmovdqu %xmm0, 208(%rsp) vpxor %xmm3, %xmm3, %xmm3 vpxor %xmm2, %xmm2, %xmm2 vpxor %xmm1, %xmm1, %xmm1 vpxor %xmm4, %xmm4, %xmm4 vpxor %xmm5, %xmm5, %xmm5 vpbroadcastq glob_data + 8(%rip), %xmm0 vmovdqu %xmm0, (%rsp) vpbroadcastq glob_data + 0(%rip), %xmm0 vmovdqu %xmm0, 16(%rsp) jmp Ljade_onetimeauth_poly1305_amd64_avx_verify$6 Ljade_onetimeauth_poly1305_amd64_avx_verify$7: vmovdqu 384(%rsp), %xmm0 vmovdqu 400(%rsp), %xmm12 vmovdqu 208(%rsp), %xmm14 vpmuludq %xmm0, %xmm3, %xmm7 vpmuludq %xmm12, %xmm3, %xmm8 vpmuludq %xmm0, %xmm2, %xmm13 vpmuludq %xmm12, %xmm2, %xmm6 vpmuludq %xmm0, %xmm1, %xmm9 vpmuludq %xmm12, %xmm1, %xmm10 vpmuludq %xmm0, %xmm4, %xmm11 vpaddq %xmm8, %xmm13, %xmm8 vpmuludq %xmm12, %xmm4, %xmm12 vpaddq %xmm6, %xmm9, %xmm9 vpmuludq %xmm0, %xmm5, %xmm0 vpaddq %xmm10, %xmm11, %xmm10 vpaddq %xmm12, %xmm0, %xmm6 vpmuludq %xmm14, %xmm2, %xmm15 vmovdqu (%rsi), %xmm0 vpmuludq %xmm14, %xmm1, %xmm13 vmovdqu 416(%rsp), %xmm12 vpmuludq %xmm14, %xmm4, %xmm11 vpmuludq %xmm14, %xmm5, %xmm14 vpaddq %xmm15, %xmm7, %xmm7 vmovdqu 16(%rsi), %xmm15 vpaddq %xmm13, %xmm8, %xmm8 vpaddq %xmm11, %xmm9, %xmm13 vpaddq %xmm14, %xmm10, %xmm9 vpmuludq %xmm12, %xmm3, %xmm14 vpunpcklqdq %xmm15, %xmm0, %xmm10 vpmuludq %xmm12, %xmm2, %xmm11 vpunpckhqdq %xmm15, %xmm0, %xmm0 vpmuludq %xmm12, %xmm1, %xmm12 vpaddq %xmm14, %xmm13, %xmm13 vmovdqu 192(%rsp), %xmm14 vpaddq %xmm11, %xmm9, %xmm9 vpaddq %xmm12, %xmm6, %xmm6 vpmuludq %xmm14, %xmm1, %xmm11 vpmuludq %xmm14, %xmm4, %xmm12 vmovdqu %xmm10, %xmm1 vpmuludq %xmm14, %xmm5, %xmm14 vpsrlq $26, %xmm1, %xmm1 vpand (%rsp), %xmm1, %xmm1 vmovdqu 432(%rsp), %xmm15 vpaddq %xmm11, %xmm7, %xmm7 vpaddq %xmm12, %xmm8, %xmm8 vpaddq %xmm13, %xmm14, %xmm12 vpmuludq %xmm15, %xmm3, %xmm11 vmovdqu %xmm0, %xmm13 vmovdqu %xmm12, 496(%rsp) vpmuludq %xmm15, %xmm2, %xmm12 vpsrlq $40, %xmm13, %xmm2 vpor 16(%rsp), %xmm2, %xmm2 vmovdqu 176(%rsp), %xmm13 vpaddq %xmm11, %xmm9, %xmm9 vpaddq %xmm12, %xmm6, %xmm6 vpmuludq %xmm13, %xmm4, %xmm11 vmovdqu %xmm10, %xmm4 vmovdqu %xmm9, 512(%rsp) vpmuludq %xmm13, %xmm5, %xmm9 vpsrlq $52, %xmm4, %xmm4 vpaddq %xmm11, %xmm7, %xmm7 vpaddq %xmm8, %xmm9, %xmm8 vpmuludq 160(%rsp), %xmm5, %xmm5 vpsllq $12, %xmm0, %xmm9 vmovdqu %xmm8, 480(%rsp) vpmuludq 448(%rsp), %xmm3, %xmm3 vpor %xmm9, %xmm4, %xmm4 vmovdqu (%rsp), %xmm8 vpaddq %xmm5, %xmm7, %xmm5 vpaddq %xmm3, %xmm6, %xmm3 vmovdqu %xmm5, 464(%rsp) vmovdqu %xmm3, 528(%rsp) vpand %xmm8, %xmm10, %xmm3 vpand %xmm8, %xmm4, %xmm4 vpsrlq $14, %xmm0, %xmm0 vpand %xmm8, %xmm0, %xmm0 vmovdqu 304(%rsp), %xmm5 vmovdqu 320(%rsp), %xmm9 vmovdqu 144(%rsp), %xmm12 vpmuludq %xmm5, %xmm3, %xmm7 vpmuludq %xmm9, %xmm3, %xmm8 vpmuludq %xmm5, %xmm1, %xmm14 vpmuludq %xmm9, %xmm1, %xmm11 vpmuludq %xmm5, %xmm4, %xmm13 vpmuludq %xmm9, %xmm4, %xmm6 vpaddq 464(%rsp), %xmm7, %xmm7 vpmuludq %xmm5, %xmm0, %xmm10 vpaddq 480(%rsp), %xmm14, %xmm14 vpaddq %xmm8, %xmm14, %xmm8 vpmuludq %xmm9, %xmm0, %xmm14 vpaddq 496(%rsp), %xmm13, %xmm9 vpaddq %xmm11, %xmm9, %xmm9 vpmuludq %xmm5, %xmm2, %xmm5 vpaddq 512(%rsp), %xmm10, %xmm10 vpaddq %xmm6, %xmm10, %xmm10 vpaddq 528(%rsp), %xmm5, %xmm5 vpaddq %xmm14, %xmm5, %xmm5 vpmuludq %xmm12, %xmm1, %xmm15 vmovdqu 32(%rsi), %xmm14 vpmuludq %xmm12, %xmm4, %xmm13 vmovdqu 336(%rsp), %xmm6 vpmuludq %xmm12, %xmm0, %xmm11 vpmuludq %xmm12, %xmm2, %xmm12 vpaddq %xmm15, %xmm7, %xmm7 vmovdqu 48(%rsi), %xmm15 vpaddq %xmm13, %xmm8, %xmm8 vpaddq %xmm11, %xmm9, %xmm9 vpaddq %xmm12, %xmm10, %xmm10 vpmuludq %xmm6, %xmm3, %xmm11 vpunpcklqdq %xmm15, %xmm14, %xmm12 vpmuludq %xmm6, %xmm1, %xmm13 vpunpckhqdq %xmm15, %xmm14, %xmm14 vpmuludq %xmm6, %xmm4, %xmm6 vpaddq %xmm11, %xmm9, %xmm9 vmovdqu 128(%rsp), %xmm11 vpaddq %xmm13, %xmm10, %xmm10 vpaddq %xmm6, %xmm5, %xmm5 vpmuludq %xmm11, %xmm4, %xmm4 vpmuludq %xmm11, %xmm0, %xmm6 vmovdqu %xmm12, %xmm13 vpmuludq %xmm11, %xmm2, %xmm11 vpsrlq $26, %xmm13, %xmm13 vpand (%rsp), %xmm13, %xmm13 vmovdqu 352(%rsp), %xmm15 vpaddq %xmm4, %xmm7, %xmm4 vpaddq %xmm6, %xmm8, %xmm6 vpaddq %xmm9, %xmm11, %xmm7 vpmuludq %xmm15, %xmm3, %xmm8 vmovdqu %xmm14, %xmm9 vpmuludq %xmm15, %xmm1, %xmm11 vpsrlq $40, %xmm9, %xmm1 vpor 16(%rsp), %xmm1, %xmm1 vmovdqu 112(%rsp), %xmm9 vpaddq %xmm8, %xmm10, %xmm8 vpaddq %xmm11, %xmm5, %xmm5 vpmuludq %xmm9, %xmm0, %xmm0 vmovdqu %xmm12, %xmm10 vpmuludq %xmm9, %xmm2, %xmm11 vpsrlq $52, %xmm10, %xmm9 vpaddq %xmm0, %xmm4, %xmm10 vpaddq %xmm6, %xmm11, %xmm0 vpmuludq 96(%rsp), %xmm2, %xmm6 vpsllq $12, %xmm14, %xmm4 vpmuludq 368(%rsp), %xmm3, %xmm2 vpor %xmm4, %xmm9, %xmm3 vmovdqu (%rsp), %xmm4 vpaddq %xmm6, %xmm10, %xmm6 vpaddq %xmm2, %xmm5, %xmm2 vpand %xmm4, %xmm12, %xmm5 vpaddq %xmm6, %xmm5, %xmm5 vpand %xmm4, %xmm3, %xmm3 vpaddq %xmm7, %xmm3, %xmm3 vpsrlq $14, %xmm14, %xmm6 vpand %xmm4, %xmm6, %xmm6 vpaddq %xmm8, %xmm6, %xmm6 addq $64, %rsi vpaddq %xmm0, %xmm13, %xmm7 vpaddq %xmm2, %xmm1, %xmm1 vpsrlq $26, %xmm5, %xmm8 vpsrlq $26, %xmm6, %xmm9 vpand %xmm4, %xmm5, %xmm0 vpand %xmm4, %xmm6, %xmm2 vpaddq %xmm8, %xmm7, %xmm5 vpaddq %xmm9, %xmm1, %xmm1 vpsrlq $26, %xmm5, %xmm6 vpsrlq $26, %xmm1, %xmm7 vpsllq $2, %xmm7, %xmm8 vpaddq %xmm8, %xmm7, %xmm7 vpand %xmm4, %xmm5, %xmm8 vpand %xmm4, %xmm1, %xmm5 vpaddq %xmm6, %xmm3, %xmm1 vpaddq %xmm7, %xmm0, %xmm0 vpsrlq $26, %xmm1, %xmm6 vpsrlq $26, %xmm0, %xmm7 vpand %xmm4, %xmm1, %xmm1 vpand %xmm4, %xmm0, %xmm3 vpaddq %xmm6, %xmm2, %xmm0 vpaddq %xmm7, %xmm8, %xmm2 vpsrlq $26, %xmm0, %xmm6 vpand %xmm4, %xmm0, %xmm4 vpaddq %xmm6, %xmm5, %xmm5 addq $-64, %r14 Ljade_onetimeauth_poly1305_amd64_avx_verify$6: cmpq $64, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx_verify$7 vmovdqu 224(%rsp), %xmm6 vmovdqu 240(%rsp), %xmm11 vmovdqu 80(%rsp), %xmm14 vpmuludq %xmm6, %xmm3, %xmm0 vpmuludq %xmm6, %xmm2, %xmm7 vpmuludq %xmm6, %xmm1, %xmm8 vpmuludq %xmm6, %xmm4, %xmm9 vpmuludq %xmm6, %xmm5, %xmm10 vpmuludq %xmm11, %xmm3, %xmm15 vpmuludq %xmm11, %xmm2, %xmm12 vpmuludq %xmm11, %xmm1, %xmm13 vpmuludq %xmm11, %xmm4, %xmm11 vmovdqu 256(%rsp), %xmm6 vpaddq %xmm15, %xmm7, %xmm7 vpaddq %xmm12, %xmm8, %xmm8 vpaddq %xmm13, %xmm9, %xmm9 vpaddq %xmm11, %xmm10, %xmm10 vpmuludq %xmm14, %xmm2, %xmm11 vpmuludq %xmm14, %xmm1, %xmm12 vpmuludq %xmm14, %xmm4, %xmm13 vpmuludq %xmm14, %xmm5, %xmm14 vmovdqu 64(%rsp), %xmm15 vpaddq %xmm11, %xmm0, %xmm0 vpaddq %xmm12, %xmm7, %xmm7 vpaddq %xmm13, %xmm8, %xmm8 vpaddq %xmm14, %xmm9, %xmm9 vpmuludq %xmm6, %xmm3, %xmm13 vpmuludq %xmm6, %xmm2, %xmm11 vpmuludq %xmm6, %xmm1, %xmm12 vmovdqu 272(%rsp), %xmm6 vpaddq %xmm13, %xmm8, %xmm8 vpaddq %xmm11, %xmm9, %xmm9 vpaddq %xmm12, %xmm10, %xmm10 vpmuludq %xmm15, %xmm1, %xmm11 vpmuludq %xmm15, %xmm4, %xmm12 vpmuludq %xmm15, %xmm5, %xmm13 vmovdqu 48(%rsp), %xmm1 vpaddq %xmm11, %xmm0, %xmm11 vpaddq %xmm12, %xmm7, %xmm7 vpaddq %xmm8, %xmm13, %xmm0 vpmuludq %xmm6, %xmm3, %xmm8 vpmuludq %xmm6, %xmm2, %xmm6 vpaddq %xmm8, %xmm9, %xmm2 vpaddq %xmm6, %xmm10, %xmm6 vpmuludq %xmm1, %xmm4, %xmm4 vpmuludq %xmm1, %xmm5, %xmm1 vpaddq %xmm4, %xmm11, %xmm4 vpaddq %xmm7, %xmm1, %xmm1 vpmuludq 32(%rsp), %xmm5, %xmm5 vpmuludq 288(%rsp), %xmm3, %xmm3 vpaddq %xmm5, %xmm4, %xmm4 vmovdqu %xmm2, %xmm5 vpaddq %xmm3, %xmm6, %xmm6 vmovdqu (%rsp), %xmm2 vpsrlq $26, %xmm4, %xmm7 vpsrlq $26, %xmm5, %xmm8 vpand %xmm2, %xmm4, %xmm3 vpand %xmm2, %xmm5, %xmm4 vpaddq %xmm7, %xmm1, %xmm1 vpaddq %xmm8, %xmm6, %xmm5 vpsrlq $26, %xmm1, %xmm6 vpsrlq $26, %xmm5, %xmm7 vpsllq $2, %xmm7, %xmm8 vpaddq %xmm8, %xmm7, %xmm7 vpand %xmm2, %xmm1, %xmm8 vpand %xmm2, %xmm5, %xmm1 vpaddq %xmm6, %xmm0, %xmm0 vpaddq %xmm7, %xmm3, %xmm3 vpsrlq $26, %xmm0, %xmm5 vpsrlq $26, %xmm3, %xmm6 vpand %xmm2, %xmm0, %xmm0 vpand %xmm2, %xmm3, %xmm3 vpaddq %xmm5, %xmm4, %xmm4 vpaddq %xmm6, %xmm8, %xmm5 vpsrlq $26, %xmm4, %xmm6 vpand %xmm2, %xmm4, %xmm2 vpaddq %xmm6, %xmm1, %xmm1 vpsllq $26, %xmm5, %xmm4 vpaddq %xmm3, %xmm4, %xmm3 vpsllq $26, %xmm2, %xmm2 vpaddq %xmm0, %xmm2, %xmm0 vpsrldq $8, %xmm1, %xmm2 vpaddq %xmm1, %xmm2, %xmm1 vpunpcklqdq %xmm0, %xmm3, %xmm2 vpunpckhqdq %xmm0, %xmm3, %xmm0 vpaddq %xmm0, %xmm2, %xmm0 vpextrq $0, %xmm0, %rax vpextrq $1, %xmm0, %r8 vpextrq $0, %xmm1, %rcx movq %r8, %r9 shlq $52, %r9 shrq $12, %r8 movq %rcx, %rbx shrq $24, %rbx shlq $40, %rcx addq %rax, %r9 adcq %rcx, %r8 adcq $0, %rbx movq %rbx, %rax movq %rbx, %rcx andq $3, %rbx shrq $2, %rax andq $-4, %rcx addq %rcx, %rax addq %rax, %r9 adcq $0, %r8 adcq $0, %rbx jmp Ljade_onetimeauth_poly1305_amd64_avx_verify$4 Ljade_onetimeauth_poly1305_amd64_avx_verify$5: addq (%rsi), %r9 adcq 8(%rsi), %r8 adcq $1, %rbx movq %r12, %rcx imulq %rbx, %rcx imulq %rbp, %rbx movq %rbp, %rax mulq %r9 movq %rax, %r11 movq %rdx, %r10 movq %rbp, %rax mulq %r8 addq %rax, %r10 adcq %rdx, %rbx movq %r12, %rax mulq %r8 movq %rdx, %r8 addq %rcx, %r8 movq %rax, %rcx movq %r13, %rax mulq %r9 addq %rcx, %r11 adcq %rax, %r10 adcq %rdx, %rbx movq $-4, %r9 movq %rbx, %rax shrq $2, %rax andq %rbx, %r9 addq %rax, %r9 andq $3, %rbx addq %r11, %r9 adcq %r10, %r8 adcq $0, %rbx addq $16, %rsi addq $-16, %r14 Ljade_onetimeauth_poly1305_amd64_avx_verify$4: cmpq $16, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx_verify$5 cmpq $0, %r14 jbe Ljade_onetimeauth_poly1305_amd64_avx_verify$3 xorq %rcx, %rcx movq %r14, %rax andq $7, %rax shlq $3, %rax shrq $3, %r14 movq %r14, %rdx xorq $1, %rdx movq %r14, %r10 addq $-1, %r10 movq %rax, %r11 andq %r10, %r11 xorq %r11, %rcx xorq %r11, %rax shlq %cl, %rdx movq %rax, %rcx shlq %cl, %r14 movq %rdx, %rax movq %r14, %rcx subq $1, %rax sbbq $0, %rcx movq (%rsi), %r10 andq %rax, %r10 orq %rdx, %r10 movq 8(%rsi), %rax andq %rcx, %rax orq %r14, %rax addq %r10, %r9 adcq %rax, %r8 adcq $0, %rbx movq %r12, %rsi imulq %rbx, %rsi imulq %rbp, %rbx movq %rbp, %rax mulq %r9 movq %rax, %rcx movq %rdx, %r10 movq %rbp, %rax mulq %r8 addq %rax, %r10 adcq %rdx, %rbx movq %r12, %rax mulq %r8 movq %rdx, %r8 addq %rsi, %r8 movq %rax, %rsi movq %r13, %rax mulq %r9 addq %rsi, %rcx adcq %rax, %r10 adcq %rdx, %rbx movq $-4, %r9 movq %rbx, %rax shrq $2, %rax andq %rbx, %r9 addq %rax, %r9 andq $3, %rbx addq %rcx, %r9 adcq %r10, %r8 adcq $0, %rbx Ljade_onetimeauth_poly1305_amd64_avx_verify$3: movq %r9, %rax movq %r8, %rcx addq $5, %rax adcq $0, %rcx adcq $0, %rbx shrq $2, %rbx negq %rbx xorq %r9, %rax xorq %r8, %rcx andq %rbx, %rax andq %rbx, %rcx xorq %r9, %rax xorq %r8, %rcx movq (%r15), %rdx movq 8(%r15), %rsi addq %rdx, %rax adcq %rsi, %rcx Ljade_onetimeauth_poly1305_amd64_avx_verify$2: movq %rax, %rdx xorq (%rdi), %rdx xorq 8(%rdi), %rcx orq %rcx, %rdx xorq %rax, %rax subq $1, %rdx adcq $0, %rax addq $-1, %rax movq 544(%rsp), %rbx movq 552(%rsp), %rbp movq 560(%rsp), %r12 movq 568(%rsp), %r13 movq 576(%rsp), %r14 movq 584(%rsp), %r15 movq 592(%rsp), %rsp ret _jade_onetimeauth_poly1305_amd64_avx: jade_onetimeauth_poly1305_amd64_avx: movq %rsp, %rax leaq -600(%rsp), %rsp andq $-16, %rsp movq %rax, 592(%rsp) movq %rbx, 544(%rsp) movq %rbp, 552(%rsp) movq %r12, 560(%rsp) movq %r13, 568(%rsp) movq %r14, 576(%rsp) movq %r15, 584(%rsp) movq %rdx, %r14 movq %rcx, %r15 cmpq $1024, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx$1 movq $0, %rbx movq $0, %r9 movq $0, %rbp movq (%r15), %r13 movq 8(%r15), %r12 movq $1152921487695413247, %rax andq %rax, %r13 movq $1152921487695413244, %rax andq %rax, %r12 movq %r12, %r8 shrq $2, %r8 addq %r12, %r8 addq $16, %r15 jmp Ljade_onetimeauth_poly1305_amd64_avx$9 Ljade_onetimeauth_poly1305_amd64_avx$10: addq (%rsi), %rbx adcq 8(%rsi), %r9 adcq $1, %rbp movq %r8, %r11 imulq %rbp, %r11 imulq %r13, %rbp movq %r13, %rax mulq %rbx movq %rax, %rcx movq %rdx, %r10 movq %r13, %rax mulq %r9 addq %rax, %r10 adcq %rdx, %rbp movq %r8, %rax mulq %r9 movq %rdx, %r9 addq %r11, %r9 movq %rax, %r11 movq %r12, %rax mulq %rbx addq %r11, %rcx adcq %rax, %r10 adcq %rdx, %rbp movq $-4, %rbx movq %rbp, %rax shrq $2, %rax andq %rbp, %rbx addq %rax, %rbx andq $3, %rbp addq %rcx, %rbx adcq %r10, %r9 adcq $0, %rbp addq $16, %rsi addq $-16, %r14 Ljade_onetimeauth_poly1305_amd64_avx$9: cmpq $16, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx$10 cmpq $0, %r14 jbe Ljade_onetimeauth_poly1305_amd64_avx$8 xorq %rcx, %rcx movq %r14, %rax andq $7, %rax shlq $3, %rax shrq $3, %r14 movq %r14, %rdx xorq $1, %rdx movq %r14, %r10 addq $-1, %r10 movq %rax, %r11 andq %r10, %r11 xorq %r11, %rcx xorq %r11, %rax shlq %cl, %rdx movq %rax, %rcx shlq %cl, %r14 movq %rdx, %rax movq %r14, %rcx subq $1, %rax sbbq $0, %rcx movq (%rsi), %r10 andq %rax, %r10 orq %rdx, %r10 movq 8(%rsi), %rax andq %rcx, %rax orq %r14, %rax addq %r10, %rbx adcq %rax, %r9 adcq $0, %rbp movq %r8, %rsi imulq %rbp, %rsi imulq %r13, %rbp movq %r13, %rax mulq %rbx movq %rax, %rcx movq %rdx, %r10 movq %r13, %rax mulq %r9 addq %rax, %r10 adcq %rdx, %rbp movq %r8, %rax mulq %r9 movq %rdx, %r9 addq %rsi, %r9 movq %rax, %rsi movq %r12, %rax mulq %rbx addq %rsi, %rcx adcq %rax, %r10 adcq %rdx, %rbp movq $-4, %rbx movq %rbp, %rax shrq $2, %rax andq %rbp, %rbx addq %rax, %rbx andq $3, %rbp addq %rcx, %rbx adcq %r10, %r9 adcq $0, %rbp Ljade_onetimeauth_poly1305_amd64_avx$8: movq %rbx, %rax movq %r9, %rcx addq $5, %rax adcq $0, %rcx adcq $0, %rbp shrq $2, %rbp negq %rbp xorq %rbx, %rax xorq %r9, %rcx andq %rbp, %rax andq %rbp, %rcx xorq %rbx, %rax xorq %r9, %rcx movq (%r15), %rdx movq 8(%r15), %rsi addq %rdx, %rax adcq %rsi, %rcx jmp Ljade_onetimeauth_poly1305_amd64_avx$2 Ljade_onetimeauth_poly1305_amd64_avx$1: movq (%r15), %rbp movq 8(%r15), %r12 movq $1152921487695413247, %rax andq %rax, %rbp movq $1152921487695413244, %rax andq %rax, %r12 movq %r12, %r13 shrq $2, %r13 addq %r12, %r13 addq $16, %r15 movq %rbp, %r8 movq %r12, %r11 movq $0, %rbx movq %r8, %rax andq $67108863, %rax movq %rax, 232(%rsp) movq %r8, %rax shrq $26, %rax andq $67108863, %rax movq %rax, 248(%rsp) movq %r8, %rax shrdq $52, %r11, %rax movq %rax, %rcx andq $67108863, %rax movq %rax, 264(%rsp) shrq $26, %rcx andq $67108863, %rcx movq %rcx, 280(%rsp) movq %r11, %rax shrdq $40, %rbx, %rax movq %rax, 296(%rsp) movq %r13, %r10 imulq %rbx, %r10 imulq %rbp, %rbx movq %rbp, %rax mulq %r8 movq %rax, %rcx movq %rdx, %r9 movq %rbp, %rax mulq %r11 addq %rax, %r9 adcq %rdx, %rbx movq %r13, %rax mulq %r11 movq %rdx, %r11 addq %r10, %r11 movq %rax, %r10 movq %r12, %rax mulq %r8 addq %r10, %rcx adcq %rax, %r9 adcq %rdx, %rbx movq $-4, %r8 movq %rbx, %rax shrq $2, %rax andq %rbx, %r8 addq %rax, %r8 andq $3, %rbx addq %rcx, %r8 adcq %r9, %r11 adcq $0, %rbx movq %r8, %rax andq $67108863, %rax movq %rax, 224(%rsp) movq %r8, %rax shrq $26, %rax andq $67108863, %rax movq %rax, 240(%rsp) movq %r8, %rax shrdq $52, %r11, %rax movq %rax, %rcx andq $67108863, %rax movq %rax, 256(%rsp) shrq $26, %rcx andq $67108863, %rcx movq %rcx, 272(%rsp) movq %r11, %rax shrdq $40, %rbx, %rax movq %rax, 288(%rsp) vpbroadcastq glob_data + 16(%rip), %xmm0 vpmuludq 240(%rsp), %xmm0, %xmm1 vmovdqu %xmm1, 32(%rsp) vpmuludq 256(%rsp), %xmm0, %xmm1 vmovdqu %xmm1, 48(%rsp) vpmuludq 272(%rsp), %xmm0, %xmm1 vmovdqu %xmm1, 64(%rsp) vpmuludq 288(%rsp), %xmm0, %xmm0 vmovdqu %xmm0, 80(%rsp) vpbroadcastq 224(%rsp), %xmm0 vmovdqu %xmm0, 304(%rsp) vpbroadcastq 240(%rsp), %xmm0 vmovdqu %xmm0, 320(%rsp) vpbroadcastq 256(%rsp), %xmm0 vmovdqu %xmm0, 336(%rsp) vpbroadcastq 272(%rsp), %xmm0 vmovdqu %xmm0, 352(%rsp) vpbroadcastq 288(%rsp), %xmm0 vmovdqu %xmm0, 368(%rsp) vpbroadcastq 32(%rsp), %xmm0 vmovdqu %xmm0, 96(%rsp) vpbroadcastq 48(%rsp), %xmm0 vmovdqu %xmm0, 112(%rsp) vpbroadcastq 64(%rsp), %xmm0 vmovdqu %xmm0, 128(%rsp) vpbroadcastq 80(%rsp), %xmm0 vmovdqu %xmm0, 144(%rsp) movq %r13, %r10 imulq %rbx, %r10 imulq %rbp, %rbx movq %rbp, %rax mulq %r8 movq %rax, %rcx movq %rdx, %r9 movq %rbp, %rax mulq %r11 addq %rax, %r9 adcq %rdx, %rbx movq %r13, %rax mulq %r11 movq %rdx, %r11 addq %r10, %r11 movq %rax, %r10 movq %r12, %rax mulq %r8 addq %r10, %rcx adcq %rax, %r9 adcq %rdx, %rbx movq $-4, %r8 movq %rbx, %rax shrq $2, %rax andq %rbx, %r8 addq %rax, %r8 andq $3, %rbx addq %rcx, %r8 adcq %r9, %r11 adcq $0, %rbx movq %r13, %r9 imulq %rbx, %r9 imulq %rbp, %rbx movq %rbp, %rax mulq %r8 movq %rax, %rcx movq %rdx, %r10 movq %rbp, %rax mulq %r11 addq %rax, %r10 adcq %rdx, %rbx movq %r13, %rax mulq %r11 movq %rdx, %r11 addq %r9, %r11 movq %rax, %r9 movq %r12, %rax mulq %r8 addq %r9, %rcx adcq %rax, %r10 adcq %rdx, %rbx movq $-4, %rax movq %rbx, %rdx shrq $2, %rdx andq %rbx, %rax addq %rdx, %rax andq $3, %rbx addq %rcx, %rax adcq %r10, %r11 adcq $0, %rbx movq %rax, %rcx andq $67108863, %rcx movq %rcx, 384(%rsp) movq %rax, %rcx shrq $26, %rcx andq $67108863, %rcx movq %rcx, 400(%rsp) shrdq $52, %r11, %rax movq %rax, %rcx andq $67108863, %rax movq %rax, 416(%rsp) shrq $26, %rcx andq $67108863, %rcx movq %rcx, 432(%rsp) shrdq $40, %rbx, %r11 movq %r11, 448(%rsp) movq 384(%rsp), %rax movq %rax, 392(%rsp) movq 400(%rsp), %rax movq %rax, 408(%rsp) movq 416(%rsp), %rax movq %rax, 424(%rsp) movq 432(%rsp), %rax movq %rax, 440(%rsp) movq 448(%rsp), %rax movq %rax, 456(%rsp) vpbroadcastq glob_data + 16(%rip), %xmm0 vpmuludq 400(%rsp), %xmm0, %xmm1 vmovdqu %xmm1, 160(%rsp) vpmuludq 416(%rsp), %xmm0, %xmm1 vmovdqu %xmm1, 176(%rsp) vpmuludq 432(%rsp), %xmm0, %xmm1 vmovdqu %xmm1, 192(%rsp) vpmuludq 448(%rsp), %xmm0, %xmm0 vmovdqu %xmm0, 208(%rsp) vpxor %xmm3, %xmm3, %xmm3 vpxor %xmm2, %xmm2, %xmm2 vpxor %xmm1, %xmm1, %xmm1 vpxor %xmm4, %xmm4, %xmm4 vpxor %xmm5, %xmm5, %xmm5 vpbroadcastq glob_data + 8(%rip), %xmm0 vmovdqu %xmm0, (%rsp) vpbroadcastq glob_data + 0(%rip), %xmm0 vmovdqu %xmm0, 16(%rsp) jmp Ljade_onetimeauth_poly1305_amd64_avx$6 Ljade_onetimeauth_poly1305_amd64_avx$7: vmovdqu 384(%rsp), %xmm0 vmovdqu 400(%rsp), %xmm12 vmovdqu 208(%rsp), %xmm14 vpmuludq %xmm0, %xmm3, %xmm7 vpmuludq %xmm12, %xmm3, %xmm8 vpmuludq %xmm0, %xmm2, %xmm13 vpmuludq %xmm12, %xmm2, %xmm6 vpmuludq %xmm0, %xmm1, %xmm9 vpmuludq %xmm12, %xmm1, %xmm10 vpmuludq %xmm0, %xmm4, %xmm11 vpaddq %xmm8, %xmm13, %xmm8 vpmuludq %xmm12, %xmm4, %xmm12 vpaddq %xmm6, %xmm9, %xmm9 vpmuludq %xmm0, %xmm5, %xmm0 vpaddq %xmm10, %xmm11, %xmm10 vpaddq %xmm12, %xmm0, %xmm6 vpmuludq %xmm14, %xmm2, %xmm15 vmovdqu (%rsi), %xmm0 vpmuludq %xmm14, %xmm1, %xmm13 vmovdqu 416(%rsp), %xmm12 vpmuludq %xmm14, %xmm4, %xmm11 vpmuludq %xmm14, %xmm5, %xmm14 vpaddq %xmm15, %xmm7, %xmm7 vmovdqu 16(%rsi), %xmm15 vpaddq %xmm13, %xmm8, %xmm8 vpaddq %xmm11, %xmm9, %xmm13 vpaddq %xmm14, %xmm10, %xmm9 vpmuludq %xmm12, %xmm3, %xmm14 vpunpcklqdq %xmm15, %xmm0, %xmm10 vpmuludq %xmm12, %xmm2, %xmm11 vpunpckhqdq %xmm15, %xmm0, %xmm0 vpmuludq %xmm12, %xmm1, %xmm12 vpaddq %xmm14, %xmm13, %xmm13 vmovdqu 192(%rsp), %xmm14 vpaddq %xmm11, %xmm9, %xmm9 vpaddq %xmm12, %xmm6, %xmm6 vpmuludq %xmm14, %xmm1, %xmm11 vpmuludq %xmm14, %xmm4, %xmm12 vmovdqu %xmm10, %xmm1 vpmuludq %xmm14, %xmm5, %xmm14 vpsrlq $26, %xmm1, %xmm1 vpand (%rsp), %xmm1, %xmm1 vmovdqu 432(%rsp), %xmm15 vpaddq %xmm11, %xmm7, %xmm7 vpaddq %xmm12, %xmm8, %xmm8 vpaddq %xmm13, %xmm14, %xmm12 vpmuludq %xmm15, %xmm3, %xmm11 vmovdqu %xmm0, %xmm13 vmovdqu %xmm12, 496(%rsp) vpmuludq %xmm15, %xmm2, %xmm12 vpsrlq $40, %xmm13, %xmm2 vpor 16(%rsp), %xmm2, %xmm2 vmovdqu 176(%rsp), %xmm13 vpaddq %xmm11, %xmm9, %xmm9 vpaddq %xmm12, %xmm6, %xmm6 vpmuludq %xmm13, %xmm4, %xmm11 vmovdqu %xmm10, %xmm4 vmovdqu %xmm9, 512(%rsp) vpmuludq %xmm13, %xmm5, %xmm9 vpsrlq $52, %xmm4, %xmm4 vpaddq %xmm11, %xmm7, %xmm7 vpaddq %xmm8, %xmm9, %xmm8 vpmuludq 160(%rsp), %xmm5, %xmm5 vpsllq $12, %xmm0, %xmm9 vmovdqu %xmm8, 480(%rsp) vpmuludq 448(%rsp), %xmm3, %xmm3 vpor %xmm9, %xmm4, %xmm4 vmovdqu (%rsp), %xmm8 vpaddq %xmm5, %xmm7, %xmm5 vpaddq %xmm3, %xmm6, %xmm3 vmovdqu %xmm5, 464(%rsp) vmovdqu %xmm3, 528(%rsp) vpand %xmm8, %xmm10, %xmm3 vpand %xmm8, %xmm4, %xmm4 vpsrlq $14, %xmm0, %xmm0 vpand %xmm8, %xmm0, %xmm0 vmovdqu 304(%rsp), %xmm5 vmovdqu 320(%rsp), %xmm9 vmovdqu 144(%rsp), %xmm12 vpmuludq %xmm5, %xmm3, %xmm7 vpmuludq %xmm9, %xmm3, %xmm8 vpmuludq %xmm5, %xmm1, %xmm14 vpmuludq %xmm9, %xmm1, %xmm11 vpmuludq %xmm5, %xmm4, %xmm13 vpmuludq %xmm9, %xmm4, %xmm6 vpaddq 464(%rsp), %xmm7, %xmm7 vpmuludq %xmm5, %xmm0, %xmm10 vpaddq 480(%rsp), %xmm14, %xmm14 vpaddq %xmm8, %xmm14, %xmm8 vpmuludq %xmm9, %xmm0, %xmm14 vpaddq 496(%rsp), %xmm13, %xmm9 vpaddq %xmm11, %xmm9, %xmm9 vpmuludq %xmm5, %xmm2, %xmm5 vpaddq 512(%rsp), %xmm10, %xmm10 vpaddq %xmm6, %xmm10, %xmm10 vpaddq 528(%rsp), %xmm5, %xmm5 vpaddq %xmm14, %xmm5, %xmm5 vpmuludq %xmm12, %xmm1, %xmm15 vmovdqu 32(%rsi), %xmm14 vpmuludq %xmm12, %xmm4, %xmm13 vmovdqu 336(%rsp), %xmm6 vpmuludq %xmm12, %xmm0, %xmm11 vpmuludq %xmm12, %xmm2, %xmm12 vpaddq %xmm15, %xmm7, %xmm7 vmovdqu 48(%rsi), %xmm15 vpaddq %xmm13, %xmm8, %xmm8 vpaddq %xmm11, %xmm9, %xmm9 vpaddq %xmm12, %xmm10, %xmm10 vpmuludq %xmm6, %xmm3, %xmm11 vpunpcklqdq %xmm15, %xmm14, %xmm12 vpmuludq %xmm6, %xmm1, %xmm13 vpunpckhqdq %xmm15, %xmm14, %xmm14 vpmuludq %xmm6, %xmm4, %xmm6 vpaddq %xmm11, %xmm9, %xmm9 vmovdqu 128(%rsp), %xmm11 vpaddq %xmm13, %xmm10, %xmm10 vpaddq %xmm6, %xmm5, %xmm5 vpmuludq %xmm11, %xmm4, %xmm4 vpmuludq %xmm11, %xmm0, %xmm6 vmovdqu %xmm12, %xmm13 vpmuludq %xmm11, %xmm2, %xmm11 vpsrlq $26, %xmm13, %xmm13 vpand (%rsp), %xmm13, %xmm13 vmovdqu 352(%rsp), %xmm15 vpaddq %xmm4, %xmm7, %xmm4 vpaddq %xmm6, %xmm8, %xmm6 vpaddq %xmm9, %xmm11, %xmm7 vpmuludq %xmm15, %xmm3, %xmm8 vmovdqu %xmm14, %xmm9 vpmuludq %xmm15, %xmm1, %xmm11 vpsrlq $40, %xmm9, %xmm1 vpor 16(%rsp), %xmm1, %xmm1 vmovdqu 112(%rsp), %xmm9 vpaddq %xmm8, %xmm10, %xmm8 vpaddq %xmm11, %xmm5, %xmm5 vpmuludq %xmm9, %xmm0, %xmm0 vmovdqu %xmm12, %xmm10 vpmuludq %xmm9, %xmm2, %xmm11 vpsrlq $52, %xmm10, %xmm9 vpaddq %xmm0, %xmm4, %xmm10 vpaddq %xmm6, %xmm11, %xmm0 vpmuludq 96(%rsp), %xmm2, %xmm6 vpsllq $12, %xmm14, %xmm4 vpmuludq 368(%rsp), %xmm3, %xmm2 vpor %xmm4, %xmm9, %xmm3 vmovdqu (%rsp), %xmm4 vpaddq %xmm6, %xmm10, %xmm6 vpaddq %xmm2, %xmm5, %xmm2 vpand %xmm4, %xmm12, %xmm5 vpaddq %xmm6, %xmm5, %xmm5 vpand %xmm4, %xmm3, %xmm3 vpaddq %xmm7, %xmm3, %xmm3 vpsrlq $14, %xmm14, %xmm6 vpand %xmm4, %xmm6, %xmm6 vpaddq %xmm8, %xmm6, %xmm6 addq $64, %rsi vpaddq %xmm0, %xmm13, %xmm7 vpaddq %xmm2, %xmm1, %xmm1 vpsrlq $26, %xmm5, %xmm8 vpsrlq $26, %xmm6, %xmm9 vpand %xmm4, %xmm5, %xmm0 vpand %xmm4, %xmm6, %xmm2 vpaddq %xmm8, %xmm7, %xmm5 vpaddq %xmm9, %xmm1, %xmm1 vpsrlq $26, %xmm5, %xmm6 vpsrlq $26, %xmm1, %xmm7 vpsllq $2, %xmm7, %xmm8 vpaddq %xmm8, %xmm7, %xmm7 vpand %xmm4, %xmm5, %xmm8 vpand %xmm4, %xmm1, %xmm5 vpaddq %xmm6, %xmm3, %xmm1 vpaddq %xmm7, %xmm0, %xmm0 vpsrlq $26, %xmm1, %xmm6 vpsrlq $26, %xmm0, %xmm7 vpand %xmm4, %xmm1, %xmm1 vpand %xmm4, %xmm0, %xmm3 vpaddq %xmm6, %xmm2, %xmm0 vpaddq %xmm7, %xmm8, %xmm2 vpsrlq $26, %xmm0, %xmm6 vpand %xmm4, %xmm0, %xmm4 vpaddq %xmm6, %xmm5, %xmm5 addq $-64, %r14 Ljade_onetimeauth_poly1305_amd64_avx$6: cmpq $64, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx$7 vmovdqu 224(%rsp), %xmm6 vmovdqu 240(%rsp), %xmm11 vmovdqu 80(%rsp), %xmm14 vpmuludq %xmm6, %xmm3, %xmm0 vpmuludq %xmm6, %xmm2, %xmm7 vpmuludq %xmm6, %xmm1, %xmm8 vpmuludq %xmm6, %xmm4, %xmm9 vpmuludq %xmm6, %xmm5, %xmm10 vpmuludq %xmm11, %xmm3, %xmm15 vpmuludq %xmm11, %xmm2, %xmm12 vpmuludq %xmm11, %xmm1, %xmm13 vpmuludq %xmm11, %xmm4, %xmm11 vmovdqu 256(%rsp), %xmm6 vpaddq %xmm15, %xmm7, %xmm7 vpaddq %xmm12, %xmm8, %xmm8 vpaddq %xmm13, %xmm9, %xmm9 vpaddq %xmm11, %xmm10, %xmm10 vpmuludq %xmm14, %xmm2, %xmm11 vpmuludq %xmm14, %xmm1, %xmm12 vpmuludq %xmm14, %xmm4, %xmm13 vpmuludq %xmm14, %xmm5, %xmm14 vmovdqu 64(%rsp), %xmm15 vpaddq %xmm11, %xmm0, %xmm0 vpaddq %xmm12, %xmm7, %xmm7 vpaddq %xmm13, %xmm8, %xmm8 vpaddq %xmm14, %xmm9, %xmm9 vpmuludq %xmm6, %xmm3, %xmm13 vpmuludq %xmm6, %xmm2, %xmm11 vpmuludq %xmm6, %xmm1, %xmm12 vmovdqu 272(%rsp), %xmm6 vpaddq %xmm13, %xmm8, %xmm8 vpaddq %xmm11, %xmm9, %xmm9 vpaddq %xmm12, %xmm10, %xmm10 vpmuludq %xmm15, %xmm1, %xmm11 vpmuludq %xmm15, %xmm4, %xmm12 vpmuludq %xmm15, %xmm5, %xmm13 vmovdqu 48(%rsp), %xmm1 vpaddq %xmm11, %xmm0, %xmm11 vpaddq %xmm12, %xmm7, %xmm7 vpaddq %xmm8, %xmm13, %xmm0 vpmuludq %xmm6, %xmm3, %xmm8 vpmuludq %xmm6, %xmm2, %xmm6 vpaddq %xmm8, %xmm9, %xmm2 vpaddq %xmm6, %xmm10, %xmm6 vpmuludq %xmm1, %xmm4, %xmm4 vpmuludq %xmm1, %xmm5, %xmm1 vpaddq %xmm4, %xmm11, %xmm4 vpaddq %xmm7, %xmm1, %xmm1 vpmuludq 32(%rsp), %xmm5, %xmm5 vpmuludq 288(%rsp), %xmm3, %xmm3 vpaddq %xmm5, %xmm4, %xmm4 vmovdqu %xmm2, %xmm5 vpaddq %xmm3, %xmm6, %xmm6 vmovdqu (%rsp), %xmm2 vpsrlq $26, %xmm4, %xmm7 vpsrlq $26, %xmm5, %xmm8 vpand %xmm2, %xmm4, %xmm3 vpand %xmm2, %xmm5, %xmm4 vpaddq %xmm7, %xmm1, %xmm1 vpaddq %xmm8, %xmm6, %xmm5 vpsrlq $26, %xmm1, %xmm6 vpsrlq $26, %xmm5, %xmm7 vpsllq $2, %xmm7, %xmm8 vpaddq %xmm8, %xmm7, %xmm7 vpand %xmm2, %xmm1, %xmm8 vpand %xmm2, %xmm5, %xmm1 vpaddq %xmm6, %xmm0, %xmm0 vpaddq %xmm7, %xmm3, %xmm3 vpsrlq $26, %xmm0, %xmm5 vpsrlq $26, %xmm3, %xmm6 vpand %xmm2, %xmm0, %xmm0 vpand %xmm2, %xmm3, %xmm3 vpaddq %xmm5, %xmm4, %xmm4 vpaddq %xmm6, %xmm8, %xmm5 vpsrlq $26, %xmm4, %xmm6 vpand %xmm2, %xmm4, %xmm2 vpaddq %xmm6, %xmm1, %xmm1 vpsllq $26, %xmm5, %xmm4 vpaddq %xmm3, %xmm4, %xmm3 vpsllq $26, %xmm2, %xmm2 vpaddq %xmm0, %xmm2, %xmm0 vpsrldq $8, %xmm1, %xmm2 vpaddq %xmm1, %xmm2, %xmm1 vpunpcklqdq %xmm0, %xmm3, %xmm2 vpunpckhqdq %xmm0, %xmm3, %xmm0 vpaddq %xmm0, %xmm2, %xmm0 vpextrq $0, %xmm0, %rax vpextrq $1, %xmm0, %rbx vpextrq $0, %xmm1, %rcx movq %rbx, %r11 shlq $52, %r11 shrq $12, %rbx movq %rcx, %r8 shrq $24, %r8 shlq $40, %rcx addq %rax, %r11 adcq %rcx, %rbx adcq $0, %r8 movq %r8, %rax movq %r8, %rcx andq $3, %r8 shrq $2, %rax andq $-4, %rcx addq %rcx, %rax addq %rax, %r11 adcq $0, %rbx adcq $0, %r8 jmp Ljade_onetimeauth_poly1305_amd64_avx$4 Ljade_onetimeauth_poly1305_amd64_avx$5: addq (%rsi), %r11 adcq 8(%rsi), %rbx adcq $1, %r8 movq %r13, %r9 imulq %r8, %r9 imulq %rbp, %r8 movq %rbp, %rax mulq %r11 movq %rax, %rcx movq %rdx, %r10 movq %rbp, %rax mulq %rbx addq %rax, %r10 adcq %rdx, %r8 movq %r13, %rax mulq %rbx movq %rdx, %rbx addq %r9, %rbx movq %rax, %r9 movq %r12, %rax mulq %r11 addq %r9, %rcx adcq %rax, %r10 adcq %rdx, %r8 movq $-4, %r11 movq %r8, %rax shrq $2, %rax andq %r8, %r11 addq %rax, %r11 andq $3, %r8 addq %rcx, %r11 adcq %r10, %rbx adcq $0, %r8 addq $16, %rsi addq $-16, %r14 Ljade_onetimeauth_poly1305_amd64_avx$4: cmpq $16, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx$5 cmpq $0, %r14 jbe Ljade_onetimeauth_poly1305_amd64_avx$3 xorq %rcx, %rcx movq %r14, %rax andq $7, %rax shlq $3, %rax shrq $3, %r14 movq %r14, %rdx xorq $1, %rdx movq %r14, %r9 addq $-1, %r9 movq %rax, %r10 andq %r9, %r10 xorq %r10, %rcx xorq %r10, %rax shlq %cl, %rdx movq %rax, %rcx shlq %cl, %r14 movq %rdx, %rax movq %r14, %rcx subq $1, %rax sbbq $0, %rcx movq (%rsi), %r9 andq %rax, %r9 orq %rdx, %r9 movq 8(%rsi), %rax andq %rcx, %rax orq %r14, %rax addq %r9, %r11 adcq %rax, %rbx adcq $0, %r8 movq %r13, %rsi imulq %r8, %rsi imulq %rbp, %r8 movq %rbp, %rax mulq %r11 movq %rax, %rcx movq %rdx, %r9 movq %rbp, %rax mulq %rbx addq %rax, %r9 adcq %rdx, %r8 movq %r13, %rax mulq %rbx movq %rdx, %rbx addq %rsi, %rbx movq %rax, %rsi movq %r12, %rax mulq %r11 addq %rsi, %rcx adcq %rax, %r9 adcq %rdx, %r8 movq $-4, %r11 movq %r8, %rax shrq $2, %rax andq %r8, %r11 addq %rax, %r11 andq $3, %r8 addq %rcx, %r11 adcq %r9, %rbx adcq $0, %r8 Ljade_onetimeauth_poly1305_amd64_avx$3: movq %r11, %rax movq %rbx, %rcx addq $5, %rax adcq $0, %rcx adcq $0, %r8 shrq $2, %r8 negq %r8 xorq %r11, %rax xorq %rbx, %rcx andq %r8, %rax andq %r8, %rcx xorq %r11, %rax xorq %rbx, %rcx movq (%r15), %rdx movq 8(%r15), %rsi addq %rdx, %rax adcq %rsi, %rcx Ljade_onetimeauth_poly1305_amd64_avx$2: movq %rax, (%rdi) movq %rcx, 8(%rdi) xorq %rax, %rax movq 544(%rsp), %rbx movq 552(%rsp), %rbp movq 560(%rsp), %r12 movq 568(%rsp), %r13 movq 576(%rsp), %r14 movq 584(%rsp), %r15 movq 592(%rsp), %rsp ret .data .p2align 5 _glob_data: glob_data: .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte -1 .byte -1 .byte -1 .byte 3 .byte 0 .byte 0 .byte 0 .byte 0 .byte 5 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0
verdict-x509/verdict
678,286
deps/libcrux/sys/libjade/jazz/kyber_kyber768_avx2.s
.att_syntax .text .p2align 5 .globl _jade_kem_kyber_kyber768_amd64_avx2_dec .globl jade_kem_kyber_kyber768_amd64_avx2_dec .globl _jade_kem_kyber_kyber768_amd64_avx2_enc .globl jade_kem_kyber_kyber768_amd64_avx2_enc .globl _jade_kem_kyber_kyber768_amd64_avx2_enc_derand .globl jade_kem_kyber_kyber768_amd64_avx2_enc_derand .globl _jade_kem_kyber_kyber768_amd64_avx2_keypair .globl jade_kem_kyber_kyber768_amd64_avx2_keypair .globl _jade_kem_kyber_kyber768_amd64_avx2_keypair_derand .globl jade_kem_kyber_kyber768_amd64_avx2_keypair_derand _jade_kem_kyber_kyber768_amd64_avx2_dec: jade_kem_kyber_kyber768_amd64_avx2_dec: movq %rsp, %rax leaq -17200(%rsp), %rsp andq $-32, %rsp movq %rax, 17192(%rsp) movq %rbx, 17160(%rsp) movq %rbp, 17168(%rsp) movq %r12, 17176(%rsp) movq %r13, 17184(%rsp) movq %rdi, 17120(%rsp) movq %rsi, 17128(%rsp) leaq 32(%rsp), %rax vpbroadcastd glob_data + 6404(%rip), %ymm0 vmovdqu glob_data + 64(%rip), %ymm1 vpbroadcastq glob_data + 6192(%rip), %ymm2 vpbroadcastd glob_data + 6400(%rip), %ymm3 vmovdqu (%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6368(%rsp) vmovdqu 20(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6400(%rsp) vmovdqu 40(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6432(%rsp) vmovdqu 60(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6464(%rsp) vmovdqu 80(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6496(%rsp) vmovdqu 100(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6528(%rsp) vmovdqu 120(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6560(%rsp) vmovdqu 140(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6592(%rsp) vmovdqu 160(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6624(%rsp) vmovdqu 180(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6656(%rsp) vmovdqu 200(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6688(%rsp) vmovdqu 220(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6720(%rsp) vmovdqu 240(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6752(%rsp) vmovdqu 260(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6784(%rsp) vmovdqu 280(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6816(%rsp) vmovdqu 300(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6848(%rsp) vmovdqu 320(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6880(%rsp) vmovdqu 340(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6912(%rsp) vmovdqu 360(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6944(%rsp) vmovdqu 380(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 6976(%rsp) vmovdqu 400(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7008(%rsp) vmovdqu 420(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7040(%rsp) vmovdqu 440(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7072(%rsp) vmovdqu 460(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7104(%rsp) vmovdqu 480(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7136(%rsp) vmovdqu 500(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7168(%rsp) vmovdqu 520(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7200(%rsp) vmovdqu 540(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7232(%rsp) vmovdqu 560(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7264(%rsp) vmovdqu 580(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7296(%rsp) vmovdqu 600(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7328(%rsp) vmovdqu 620(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7360(%rsp) vmovdqu 640(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7392(%rsp) vmovdqu 660(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7424(%rsp) vmovdqu 680(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7456(%rsp) vmovdqu 700(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7488(%rsp) vmovdqu 720(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7520(%rsp) vmovdqu 740(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7552(%rsp) vmovdqu 760(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7584(%rsp) vmovdqu 780(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7616(%rsp) vmovdqu 800(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7648(%rsp) vmovdqu 820(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7680(%rsp) vmovdqu 840(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7712(%rsp) vmovdqu 860(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7744(%rsp) vmovdqu 880(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7776(%rsp) vmovdqu 900(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7808(%rsp) vmovdqu 920(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpsllvd %ymm2, %ymm4, %ymm4 vpsrlw $1, %ymm4, %ymm4 vpand %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 7840(%rsp) vmovdqu 940(%rsi), %ymm4 vpermq $-108, %ymm4, %ymm4 vpshufb %ymm1, %ymm4, %ymm1 vpsllvd %ymm2, %ymm1, %ymm1 vpsrlw $1, %ymm1, %ymm1 vpand %ymm3, %ymm1, %ymm1 vpmulhrsw %ymm0, %ymm1, %ymm0 vmovdqu %ymm0, 7872(%rsp) addq $960, %rsi leaq 2432(%rsp), %rcx leaq -16(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$145(%rip), %r8 jmp L_poly_decompress$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$145: leaq 16(%rsp), %rsp movq %rdx, %rdi leaq 7904(%rsp), %r8 leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$144(%rip), %r10 jmp L_poly_frombytes$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$144: addq $384, %rdi leaq 8416(%rsp), %r8 leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$143(%rip), %r10 jmp L_poly_frombytes$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$143: addq $384, %rdi leaq 8928(%rsp), %r8 leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$142(%rip), %r10 jmp L_poly_frombytes$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$142: leaq 6368(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$141(%rip), %rdi jmp L_poly_ntt$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$141: leaq 6880(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$140(%rip), %rdi jmp L_poly_ntt$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$140: leaq 7392(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$139(%rip), %rdi jmp L_poly_ntt$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$139: leaq 2944(%rsp), %rcx leaq 7904(%rsp), %rsi leaq 6368(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$138(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$138: leaq 3456(%rsp), %rcx leaq 8416(%rsp), %rsi leaq 6880(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$137(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$137: leaq 2944(%rsp), %rcx leaq 3456(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$136(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$136: leaq 3456(%rsp), %rcx leaq 8928(%rsp), %rsi leaq 7392(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$135(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$135: leaq 2944(%rsp), %rcx leaq 3456(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$134(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$134: leaq 2944(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$133(%rip), %rdi jmp L_poly_invntt$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$133: leaq 3456(%rsp), %rcx leaq 2432(%rsp), %rsi leaq 2944(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$132(%rip), %r8 jmp L_poly_sub$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$132: leaq 3456(%rsp), %rcx vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu glob_data + 384(%rip), %ymm1 vmovdqu (%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, (%rcx) vmovdqu 32(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 32(%rcx) vmovdqu 64(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 64(%rcx) vmovdqu 96(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 96(%rcx) vmovdqu 128(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 128(%rcx) vmovdqu 160(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 160(%rcx) vmovdqu 192(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 192(%rcx) vmovdqu 224(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 224(%rcx) vmovdqu 256(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 256(%rcx) vmovdqu 288(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 288(%rcx) vmovdqu 320(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 320(%rcx) vmovdqu 352(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 352(%rcx) vmovdqu 384(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 384(%rcx) vmovdqu 416(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 416(%rcx) vmovdqu 448(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 448(%rcx) vmovdqu 480(%rcx), %ymm2 vpmulhw %ymm1, %ymm2, %ymm1 vpsraw $10, %ymm1, %ymm1 vpmullw %ymm0, %ymm1, %ymm0 vpsubw %ymm0, %ymm2, %ymm0 vmovdqu %ymm0, 480(%rcx) leaq 3456(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$131(%rip), %rdi jmp L_poly_tomsg_1$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$131: leaq 32(%rdx), %rax addq $2304, %rax movq (%rax), %rcx movq %rcx, 64(%rsp) movq 8(%rax), %rcx movq %rcx, 72(%rsp) movq 16(%rax), %rcx movq %rcx, 80(%rsp) movq 24(%rax), %rax movq %rax, 88(%rsp) movq %rdx, 17136(%rsp) leaq 96(%rsp), %rax leaq 32(%rsp), %rcx leaq -256(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$130(%rip), %rdx movq %rdx, 224(%rsp) jmp L_sha3_512_64$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$130: leaq 256(%rsp), %rsp movq 17136(%rsp), %rcx addq $1152, %rcx leaq 5280(%rsp), %rdx leaq 32(%rsp), %rax leaq 128(%rsp), %rsi movq %rdx, 17144(%rsp) movq %rcx, %rdi leaq 6368(%rsp), %r8 leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$129(%rip), %r10 jmp L_poly_frombytes$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$129: addq $384, %rdi leaq 6880(%rsp), %r8 leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$128(%rip), %r10 jmp L_poly_frombytes$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$128: addq $384, %rdi leaq 7392(%rsp), %r8 leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$127(%rip), %r10 jmp L_poly_frombytes$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$127: movq $0, %rdx addq $1152, %rcx jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$125 Ljade_kem_kyber_kyber768_amd64_avx2_dec$126: movq (%rcx), %rdi movq %rdi, (%rsp,%rdx,8) addq $8, %rcx incq %rdx Ljade_kem_kyber_kyber768_amd64_avx2_dec$125: cmpq $4, %rdx jb Ljade_kem_kyber_kyber768_amd64_avx2_dec$126 leaq 3456(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$124(%rip), %r8 jmp L_poly_frommsg_1$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$124: movq %rsi, 17152(%rsp) vmovdqu (%rsp), %ymm0 vmovdqu %ymm0, 384(%rsp) vmovdqu %ymm0, 896(%rsp) vmovdqu %ymm0, 1408(%rsp) vmovdqu %ymm0, 1920(%rsp) vmovdqu %ymm0, (%rsp) movb $0, 416(%rsp) movb $0, 417(%rsp) movb $0, 928(%rsp) movb $1, 929(%rsp) movb $0, 1440(%rsp) movb $2, 1441(%rsp) movb $1, 1952(%rsp) movb $0, 1953(%rsp) leaq 4480(%rsp), %rax leaq 384(%rsp), %rcx leaq 896(%rsp), %rdx leaq 1408(%rsp), %rsi leaq 1920(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$123(%rip), %r8 movq %r8, (%rsp) jmp L_shake128_absorb4x_34$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$123: leaq 8(%rsp), %rsp leaq 4480(%rsp), %rax leaq 384(%rsp), %rdi leaq 896(%rsp), %r8 leaq 1408(%rsp), %r9 leaq 1920(%rsp), %r10 movq %rdi, %r11 movq %r8, %rbx movq %r9, %rbp movq %r10, %r12 leaq -832(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$122(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$122: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r11) vmovhpd %xmm1, (%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbp) vmovhpd %xmm0, (%r12) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r11) vmovhpd %xmm1, 8(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbp) vmovhpd %xmm0, 8(%r12) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r11) vmovhpd %xmm1, 16(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbp) vmovhpd %xmm0, 16(%r12) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r11) vmovhpd %xmm1, 24(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbp) vmovhpd %xmm0, 24(%r12) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r11) vmovhpd %xmm1, 32(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbp) vmovhpd %xmm0, 32(%r12) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r11) vmovhpd %xmm1, 40(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbp) vmovhpd %xmm0, 40(%r12) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r11) vmovhpd %xmm1, 48(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbp) vmovhpd %xmm0, 48(%r12) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r11) vmovhpd %xmm1, 56(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbp) vmovhpd %xmm0, 56(%r12) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r11) vmovhpd %xmm1, 64(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbp) vmovhpd %xmm0, 64(%r12) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r11) vmovhpd %xmm1, 72(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbp) vmovhpd %xmm0, 72(%r12) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r11) vmovhpd %xmm1, 80(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbp) vmovhpd %xmm0, 80(%r12) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r11) vmovhpd %xmm1, 88(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbp) vmovhpd %xmm0, 88(%r12) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r11) vmovhpd %xmm1, 96(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbp) vmovhpd %xmm0, 96(%r12) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r11) vmovhpd %xmm1, 104(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbp) vmovhpd %xmm0, 104(%r12) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r11) vmovhpd %xmm1, 112(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbp) vmovhpd %xmm0, 112(%r12) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r11) vmovhpd %xmm1, 120(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbp) vmovhpd %xmm0, 120(%r12) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r11) vmovhpd %xmm1, 128(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbp) vmovhpd %xmm0, 128(%r12) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r11) vmovhpd %xmm1, 136(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbp) vmovhpd %xmm0, 136(%r12) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r11) vmovhpd %xmm1, 144(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbp) vmovhpd %xmm0, 144(%r12) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r11) vmovhpd %xmm1, 152(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbp) vmovhpd %xmm0, 152(%r12) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r11) vmovhpd %xmm1, 160(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbp) vmovhpd %xmm0, 160(%r12) leaq 168(%rdi), %r11 leaq 168(%r8), %rbx leaq 168(%r9), %rbp leaq 168(%r10), %r12 leaq -832(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$121(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$121: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r11) vmovhpd %xmm1, (%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbp) vmovhpd %xmm0, (%r12) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r11) vmovhpd %xmm1, 8(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbp) vmovhpd %xmm0, 8(%r12) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r11) vmovhpd %xmm1, 16(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbp) vmovhpd %xmm0, 16(%r12) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r11) vmovhpd %xmm1, 24(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbp) vmovhpd %xmm0, 24(%r12) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r11) vmovhpd %xmm1, 32(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbp) vmovhpd %xmm0, 32(%r12) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r11) vmovhpd %xmm1, 40(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbp) vmovhpd %xmm0, 40(%r12) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r11) vmovhpd %xmm1, 48(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbp) vmovhpd %xmm0, 48(%r12) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r11) vmovhpd %xmm1, 56(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbp) vmovhpd %xmm0, 56(%r12) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r11) vmovhpd %xmm1, 64(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbp) vmovhpd %xmm0, 64(%r12) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r11) vmovhpd %xmm1, 72(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbp) vmovhpd %xmm0, 72(%r12) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r11) vmovhpd %xmm1, 80(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbp) vmovhpd %xmm0, 80(%r12) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r11) vmovhpd %xmm1, 88(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbp) vmovhpd %xmm0, 88(%r12) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r11) vmovhpd %xmm1, 96(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbp) vmovhpd %xmm0, 96(%r12) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r11) vmovhpd %xmm1, 104(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbp) vmovhpd %xmm0, 104(%r12) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r11) vmovhpd %xmm1, 112(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbp) vmovhpd %xmm0, 112(%r12) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r11) vmovhpd %xmm1, 120(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbp) vmovhpd %xmm0, 120(%r12) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r11) vmovhpd %xmm1, 128(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbp) vmovhpd %xmm0, 128(%r12) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r11) vmovhpd %xmm1, 136(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbp) vmovhpd %xmm0, 136(%r12) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r11) vmovhpd %xmm1, 144(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbp) vmovhpd %xmm0, 144(%r12) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r11) vmovhpd %xmm1, 152(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbp) vmovhpd %xmm0, 152(%r12) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r11) vmovhpd %xmm1, 160(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbp) vmovhpd %xmm0, 160(%r12) leaq 336(%rdi), %rdi leaq 336(%r8), %r8 leaq 336(%r9), %r9 leaq 336(%r10), %r10 leaq -832(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$120(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$120: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%rdi) vmovhpd %xmm1, (%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%r9) vmovhpd %xmm0, (%r10) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%rdi) vmovhpd %xmm1, 8(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%r9) vmovhpd %xmm0, 8(%r10) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%rdi) vmovhpd %xmm1, 16(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%r9) vmovhpd %xmm0, 16(%r10) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%rdi) vmovhpd %xmm1, 24(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%r9) vmovhpd %xmm0, 24(%r10) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%rdi) vmovhpd %xmm1, 32(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%r9) vmovhpd %xmm0, 32(%r10) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%rdi) vmovhpd %xmm1, 40(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%r9) vmovhpd %xmm0, 40(%r10) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%rdi) vmovhpd %xmm1, 48(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%r9) vmovhpd %xmm0, 48(%r10) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%rdi) vmovhpd %xmm1, 56(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%r9) vmovhpd %xmm0, 56(%r10) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%rdi) vmovhpd %xmm1, 64(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%r9) vmovhpd %xmm0, 64(%r10) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%rdi) vmovhpd %xmm1, 72(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%r9) vmovhpd %xmm0, 72(%r10) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%rdi) vmovhpd %xmm1, 80(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%r9) vmovhpd %xmm0, 80(%r10) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%rdi) vmovhpd %xmm1, 88(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%r9) vmovhpd %xmm0, 88(%r10) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%rdi) vmovhpd %xmm1, 96(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%r9) vmovhpd %xmm0, 96(%r10) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%rdi) vmovhpd %xmm1, 104(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%r9) vmovhpd %xmm0, 104(%r10) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%rdi) vmovhpd %xmm1, 112(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%r9) vmovhpd %xmm0, 112(%r10) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%rdi) vmovhpd %xmm1, 120(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%r9) vmovhpd %xmm0, 120(%r10) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%rdi) vmovhpd %xmm1, 128(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%r9) vmovhpd %xmm0, 128(%r10) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%rdi) vmovhpd %xmm1, 136(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%r9) vmovhpd %xmm0, 136(%r10) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%rdi) vmovhpd %xmm1, 144(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%r9) vmovhpd %xmm0, 144(%r10) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%rdi) vmovhpd %xmm1, 152(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%r9) vmovhpd %xmm0, 152(%r10) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%rdi) vmovhpd %xmm1, 160(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%r9) vmovhpd %xmm0, 160(%r10) leaq 12512(%rsp), %rbx leaq 384(%rsp), %rbp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$119(%rip), %r11 jmp L_rej_uniform_avx$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$119: movq %r13, %r9 leaq 13024(%rsp), %rbx leaq 896(%rsp), %rbp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$118(%rip), %r11 jmp L_rej_uniform_avx$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$118: movq %r13, %rdi leaq 13536(%rsp), %rbx leaq 1408(%rsp), %rbp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$117(%rip), %r11 jmp L_rej_uniform_avx$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$117: movq %r13, %r8 leaq 14048(%rsp), %rbx leaq 1920(%rsp), %rbp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$116(%rip), %r11 jmp L_rej_uniform_avx$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$116: cmpq $255, %r9 setbe %al cmpq $255, %rdi setbe %cl orb %cl, %al cmpq $255, %r8 setbe %cl cmpq $255, %r13 setbe %dl orb %dl, %cl orb %al, %cl jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$93 Ljade_kem_kyber_kyber768_amd64_avx2_dec$94: leaq 4480(%rsp), %rax leaq 384(%rsp), %r10 leaq 896(%rsp), %r11 leaq 1408(%rsp), %rbx leaq 1920(%rsp), %rbp leaq -832(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$115(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$115: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r10) vmovhpd %xmm1, (%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbx) vmovhpd %xmm0, (%rbp) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r10) vmovhpd %xmm1, 8(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbx) vmovhpd %xmm0, 8(%rbp) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r10) vmovhpd %xmm1, 16(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbx) vmovhpd %xmm0, 16(%rbp) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r10) vmovhpd %xmm1, 24(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbx) vmovhpd %xmm0, 24(%rbp) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r10) vmovhpd %xmm1, 32(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbx) vmovhpd %xmm0, 32(%rbp) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r10) vmovhpd %xmm1, 40(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbx) vmovhpd %xmm0, 40(%rbp) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r10) vmovhpd %xmm1, 48(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbx) vmovhpd %xmm0, 48(%rbp) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r10) vmovhpd %xmm1, 56(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbx) vmovhpd %xmm0, 56(%rbp) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r10) vmovhpd %xmm1, 64(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbx) vmovhpd %xmm0, 64(%rbp) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r10) vmovhpd %xmm1, 72(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbx) vmovhpd %xmm0, 72(%rbp) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r10) vmovhpd %xmm1, 80(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbx) vmovhpd %xmm0, 80(%rbp) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r10) vmovhpd %xmm1, 88(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbx) vmovhpd %xmm0, 88(%rbp) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r10) vmovhpd %xmm1, 96(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbx) vmovhpd %xmm0, 96(%rbp) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r10) vmovhpd %xmm1, 104(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbx) vmovhpd %xmm0, 104(%rbp) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r10) vmovhpd %xmm1, 112(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbx) vmovhpd %xmm0, 112(%rbp) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r10) vmovhpd %xmm1, 120(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbx) vmovhpd %xmm0, 120(%rbp) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r10) vmovhpd %xmm1, 128(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbx) vmovhpd %xmm0, 128(%rbp) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r10) vmovhpd %xmm1, 136(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbx) vmovhpd %xmm0, 136(%rbp) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r10) vmovhpd %xmm1, 144(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbx) vmovhpd %xmm0, 144(%rbp) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r10) vmovhpd %xmm1, 152(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbx) vmovhpd %xmm0, 152(%rbp) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r10) vmovhpd %xmm1, 160(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbx) vmovhpd %xmm0, 160(%rbp) leaq 12512(%rsp), %rax leaq 384(%rsp), %rcx movq $0, %rdx cmpq $255, %r9 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$110 Ljade_kem_kyber_kyber768_amd64_avx2_dec$111: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$114 movw %si, (%rax,%r9,2) incq %r9 Ljade_kem_kyber_kyber768_amd64_avx2_dec$114: cmpq $256, %r9 jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$112 cmpw $3329, %r11w jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$112 movw %r11w, (%rax,%r9,2) incq %r9 Ljade_kem_kyber_kyber768_amd64_avx2_dec$113: Ljade_kem_kyber_kyber768_amd64_avx2_dec$112: cmpq $255, %r9 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil Ljade_kem_kyber_kyber768_amd64_avx2_dec$110: jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$111 leaq 13024(%rsp), %rax leaq 896(%rsp), %rcx movq $0, %rdx cmpq $255, %rdi setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$105 Ljade_kem_kyber_kyber768_amd64_avx2_dec$106: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$109 movw %si, (%rax,%rdi,2) incq %rdi Ljade_kem_kyber_kyber768_amd64_avx2_dec$109: cmpq $256, %rdi jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$107 cmpw $3329, %r11w jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$107 movw %r11w, (%rax,%rdi,2) incq %rdi Ljade_kem_kyber_kyber768_amd64_avx2_dec$108: Ljade_kem_kyber_kyber768_amd64_avx2_dec$107: cmpq $255, %rdi setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil Ljade_kem_kyber_kyber768_amd64_avx2_dec$105: jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$106 leaq 13536(%rsp), %rax leaq 1408(%rsp), %rcx movq $0, %rdx cmpq $255, %r8 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$100 Ljade_kem_kyber_kyber768_amd64_avx2_dec$101: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$104 movw %si, (%rax,%r8,2) incq %r8 Ljade_kem_kyber_kyber768_amd64_avx2_dec$104: cmpq $256, %r8 jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$102 cmpw $3329, %r11w jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$102 movw %r11w, (%rax,%r8,2) incq %r8 Ljade_kem_kyber_kyber768_amd64_avx2_dec$103: Ljade_kem_kyber_kyber768_amd64_avx2_dec$102: cmpq $255, %r8 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil Ljade_kem_kyber_kyber768_amd64_avx2_dec$100: jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$101 leaq 14048(%rsp), %rax leaq 1920(%rsp), %rcx movq $0, %rdx cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$95 Ljade_kem_kyber_kyber768_amd64_avx2_dec$96: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$99 movw %si, (%rax,%r13,2) incq %r13 Ljade_kem_kyber_kyber768_amd64_avx2_dec$99: cmpq $256, %r13 jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$97 cmpw $3329, %r11w jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$97 movw %r11w, (%rax,%r13,2) incq %r13 Ljade_kem_kyber_kyber768_amd64_avx2_dec$98: Ljade_kem_kyber_kyber768_amd64_avx2_dec$97: cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil Ljade_kem_kyber_kyber768_amd64_avx2_dec$95: jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$96 cmpq $255, %r9 setbe %al cmpq $255, %rdi setbe %cl orb %cl, %al cmpq $255, %r8 setbe %cl cmpq $255, %r13 setbe %dl orb %dl, %cl orb %al, %cl Ljade_kem_kyber_kyber768_amd64_avx2_dec$93: jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$94 vmovdqu (%rsp), %ymm0 vmovdqu %ymm0, 384(%rsp) vmovdqu %ymm0, 896(%rsp) vmovdqu %ymm0, 1408(%rsp) vmovdqu %ymm0, 1920(%rsp) vmovdqu %ymm0, (%rsp) movb $1, 416(%rsp) movb $1, 417(%rsp) movb $1, 928(%rsp) movb $2, 929(%rsp) movb $2, 1440(%rsp) movb $0, 1441(%rsp) movb $2, 1952(%rsp) movb $1, 1953(%rsp) leaq 4480(%rsp), %rax leaq 384(%rsp), %rcx leaq 896(%rsp), %rdx leaq 1408(%rsp), %rsi leaq 1920(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$92(%rip), %r8 movq %r8, (%rsp) jmp L_shake128_absorb4x_34$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$92: leaq 8(%rsp), %rsp leaq 4480(%rsp), %rax leaq 384(%rsp), %rdi leaq 896(%rsp), %r8 leaq 1408(%rsp), %r9 leaq 1920(%rsp), %r10 movq %rdi, %r11 movq %r8, %rbx movq %r9, %rbp movq %r10, %r12 leaq -832(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$91(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$91: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r11) vmovhpd %xmm1, (%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbp) vmovhpd %xmm0, (%r12) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r11) vmovhpd %xmm1, 8(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbp) vmovhpd %xmm0, 8(%r12) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r11) vmovhpd %xmm1, 16(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbp) vmovhpd %xmm0, 16(%r12) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r11) vmovhpd %xmm1, 24(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbp) vmovhpd %xmm0, 24(%r12) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r11) vmovhpd %xmm1, 32(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbp) vmovhpd %xmm0, 32(%r12) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r11) vmovhpd %xmm1, 40(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbp) vmovhpd %xmm0, 40(%r12) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r11) vmovhpd %xmm1, 48(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbp) vmovhpd %xmm0, 48(%r12) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r11) vmovhpd %xmm1, 56(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbp) vmovhpd %xmm0, 56(%r12) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r11) vmovhpd %xmm1, 64(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbp) vmovhpd %xmm0, 64(%r12) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r11) vmovhpd %xmm1, 72(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbp) vmovhpd %xmm0, 72(%r12) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r11) vmovhpd %xmm1, 80(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbp) vmovhpd %xmm0, 80(%r12) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r11) vmovhpd %xmm1, 88(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbp) vmovhpd %xmm0, 88(%r12) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r11) vmovhpd %xmm1, 96(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbp) vmovhpd %xmm0, 96(%r12) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r11) vmovhpd %xmm1, 104(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbp) vmovhpd %xmm0, 104(%r12) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r11) vmovhpd %xmm1, 112(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbp) vmovhpd %xmm0, 112(%r12) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r11) vmovhpd %xmm1, 120(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbp) vmovhpd %xmm0, 120(%r12) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r11) vmovhpd %xmm1, 128(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbp) vmovhpd %xmm0, 128(%r12) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r11) vmovhpd %xmm1, 136(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbp) vmovhpd %xmm0, 136(%r12) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r11) vmovhpd %xmm1, 144(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbp) vmovhpd %xmm0, 144(%r12) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r11) vmovhpd %xmm1, 152(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbp) vmovhpd %xmm0, 152(%r12) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r11) vmovhpd %xmm1, 160(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbp) vmovhpd %xmm0, 160(%r12) leaq 168(%rdi), %r11 leaq 168(%r8), %rbx leaq 168(%r9), %rbp leaq 168(%r10), %r12 leaq -832(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$90(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$90: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r11) vmovhpd %xmm1, (%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbp) vmovhpd %xmm0, (%r12) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r11) vmovhpd %xmm1, 8(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbp) vmovhpd %xmm0, 8(%r12) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r11) vmovhpd %xmm1, 16(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbp) vmovhpd %xmm0, 16(%r12) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r11) vmovhpd %xmm1, 24(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbp) vmovhpd %xmm0, 24(%r12) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r11) vmovhpd %xmm1, 32(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbp) vmovhpd %xmm0, 32(%r12) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r11) vmovhpd %xmm1, 40(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbp) vmovhpd %xmm0, 40(%r12) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r11) vmovhpd %xmm1, 48(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbp) vmovhpd %xmm0, 48(%r12) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r11) vmovhpd %xmm1, 56(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbp) vmovhpd %xmm0, 56(%r12) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r11) vmovhpd %xmm1, 64(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbp) vmovhpd %xmm0, 64(%r12) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r11) vmovhpd %xmm1, 72(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbp) vmovhpd %xmm0, 72(%r12) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r11) vmovhpd %xmm1, 80(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbp) vmovhpd %xmm0, 80(%r12) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r11) vmovhpd %xmm1, 88(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbp) vmovhpd %xmm0, 88(%r12) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r11) vmovhpd %xmm1, 96(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbp) vmovhpd %xmm0, 96(%r12) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r11) vmovhpd %xmm1, 104(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbp) vmovhpd %xmm0, 104(%r12) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r11) vmovhpd %xmm1, 112(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbp) vmovhpd %xmm0, 112(%r12) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r11) vmovhpd %xmm1, 120(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbp) vmovhpd %xmm0, 120(%r12) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r11) vmovhpd %xmm1, 128(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbp) vmovhpd %xmm0, 128(%r12) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r11) vmovhpd %xmm1, 136(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbp) vmovhpd %xmm0, 136(%r12) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r11) vmovhpd %xmm1, 144(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbp) vmovhpd %xmm0, 144(%r12) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r11) vmovhpd %xmm1, 152(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbp) vmovhpd %xmm0, 152(%r12) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r11) vmovhpd %xmm1, 160(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbp) vmovhpd %xmm0, 160(%r12) leaq 336(%rdi), %rdi leaq 336(%r8), %r8 leaq 336(%r9), %r9 leaq 336(%r10), %r10 leaq -832(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$89(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$89: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%rdi) vmovhpd %xmm1, (%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%r9) vmovhpd %xmm0, (%r10) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%rdi) vmovhpd %xmm1, 8(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%r9) vmovhpd %xmm0, 8(%r10) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%rdi) vmovhpd %xmm1, 16(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%r9) vmovhpd %xmm0, 16(%r10) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%rdi) vmovhpd %xmm1, 24(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%r9) vmovhpd %xmm0, 24(%r10) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%rdi) vmovhpd %xmm1, 32(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%r9) vmovhpd %xmm0, 32(%r10) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%rdi) vmovhpd %xmm1, 40(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%r9) vmovhpd %xmm0, 40(%r10) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%rdi) vmovhpd %xmm1, 48(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%r9) vmovhpd %xmm0, 48(%r10) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%rdi) vmovhpd %xmm1, 56(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%r9) vmovhpd %xmm0, 56(%r10) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%rdi) vmovhpd %xmm1, 64(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%r9) vmovhpd %xmm0, 64(%r10) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%rdi) vmovhpd %xmm1, 72(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%r9) vmovhpd %xmm0, 72(%r10) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%rdi) vmovhpd %xmm1, 80(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%r9) vmovhpd %xmm0, 80(%r10) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%rdi) vmovhpd %xmm1, 88(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%r9) vmovhpd %xmm0, 88(%r10) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%rdi) vmovhpd %xmm1, 96(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%r9) vmovhpd %xmm0, 96(%r10) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%rdi) vmovhpd %xmm1, 104(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%r9) vmovhpd %xmm0, 104(%r10) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%rdi) vmovhpd %xmm1, 112(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%r9) vmovhpd %xmm0, 112(%r10) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%rdi) vmovhpd %xmm1, 120(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%r9) vmovhpd %xmm0, 120(%r10) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%rdi) vmovhpd %xmm1, 128(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%r9) vmovhpd %xmm0, 128(%r10) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%rdi) vmovhpd %xmm1, 136(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%r9) vmovhpd %xmm0, 136(%r10) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%rdi) vmovhpd %xmm1, 144(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%r9) vmovhpd %xmm0, 144(%r10) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%rdi) vmovhpd %xmm1, 152(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%r9) vmovhpd %xmm0, 152(%r10) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%rdi) vmovhpd %xmm1, 160(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%r9) vmovhpd %xmm0, 160(%r10) leaq 14560(%rsp), %rbx leaq 384(%rsp), %rbp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$88(%rip), %r11 jmp L_rej_uniform_avx$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$88: movq %r13, %rdi leaq 15072(%rsp), %rbx leaq 896(%rsp), %rbp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$87(%rip), %r11 jmp L_rej_uniform_avx$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$87: movq %r13, %r8 leaq 15584(%rsp), %rbx leaq 1408(%rsp), %rbp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$86(%rip), %r11 jmp L_rej_uniform_avx$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$86: movq %r13, %r9 leaq 16096(%rsp), %rbx leaq 1920(%rsp), %rbp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$85(%rip), %r11 jmp L_rej_uniform_avx$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$85: cmpq $255, %rdi setbe %al cmpq $255, %r8 setbe %cl orb %cl, %al cmpq $255, %r9 setbe %cl cmpq $255, %r13 setbe %dl orb %dl, %cl orb %al, %cl jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$62 Ljade_kem_kyber_kyber768_amd64_avx2_dec$63: leaq 4480(%rsp), %rax leaq 384(%rsp), %r10 leaq 896(%rsp), %r11 leaq 1408(%rsp), %rbx leaq 1920(%rsp), %rbp leaq -832(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$84(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$84: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r10) vmovhpd %xmm1, (%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbx) vmovhpd %xmm0, (%rbp) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r10) vmovhpd %xmm1, 8(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbx) vmovhpd %xmm0, 8(%rbp) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r10) vmovhpd %xmm1, 16(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbx) vmovhpd %xmm0, 16(%rbp) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r10) vmovhpd %xmm1, 24(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbx) vmovhpd %xmm0, 24(%rbp) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r10) vmovhpd %xmm1, 32(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbx) vmovhpd %xmm0, 32(%rbp) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r10) vmovhpd %xmm1, 40(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbx) vmovhpd %xmm0, 40(%rbp) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r10) vmovhpd %xmm1, 48(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbx) vmovhpd %xmm0, 48(%rbp) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r10) vmovhpd %xmm1, 56(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbx) vmovhpd %xmm0, 56(%rbp) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r10) vmovhpd %xmm1, 64(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbx) vmovhpd %xmm0, 64(%rbp) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r10) vmovhpd %xmm1, 72(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbx) vmovhpd %xmm0, 72(%rbp) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r10) vmovhpd %xmm1, 80(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbx) vmovhpd %xmm0, 80(%rbp) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r10) vmovhpd %xmm1, 88(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbx) vmovhpd %xmm0, 88(%rbp) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r10) vmovhpd %xmm1, 96(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbx) vmovhpd %xmm0, 96(%rbp) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r10) vmovhpd %xmm1, 104(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbx) vmovhpd %xmm0, 104(%rbp) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r10) vmovhpd %xmm1, 112(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbx) vmovhpd %xmm0, 112(%rbp) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r10) vmovhpd %xmm1, 120(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbx) vmovhpd %xmm0, 120(%rbp) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r10) vmovhpd %xmm1, 128(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbx) vmovhpd %xmm0, 128(%rbp) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r10) vmovhpd %xmm1, 136(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbx) vmovhpd %xmm0, 136(%rbp) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r10) vmovhpd %xmm1, 144(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbx) vmovhpd %xmm0, 144(%rbp) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r10) vmovhpd %xmm1, 152(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbx) vmovhpd %xmm0, 152(%rbp) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r10) vmovhpd %xmm1, 160(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbx) vmovhpd %xmm0, 160(%rbp) leaq 14560(%rsp), %rax leaq 384(%rsp), %rcx movq $0, %rdx cmpq $255, %rdi setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$79 Ljade_kem_kyber_kyber768_amd64_avx2_dec$80: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$83 movw %si, (%rax,%rdi,2) incq %rdi Ljade_kem_kyber_kyber768_amd64_avx2_dec$83: cmpq $256, %rdi jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$81 cmpw $3329, %r11w jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$81 movw %r11w, (%rax,%rdi,2) incq %rdi Ljade_kem_kyber_kyber768_amd64_avx2_dec$82: Ljade_kem_kyber_kyber768_amd64_avx2_dec$81: cmpq $255, %rdi setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil Ljade_kem_kyber_kyber768_amd64_avx2_dec$79: jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$80 leaq 15072(%rsp), %rax leaq 896(%rsp), %rcx movq $0, %rdx cmpq $255, %r8 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$74 Ljade_kem_kyber_kyber768_amd64_avx2_dec$75: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$78 movw %si, (%rax,%r8,2) incq %r8 Ljade_kem_kyber_kyber768_amd64_avx2_dec$78: cmpq $256, %r8 jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$76 cmpw $3329, %r11w jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$76 movw %r11w, (%rax,%r8,2) incq %r8 Ljade_kem_kyber_kyber768_amd64_avx2_dec$77: Ljade_kem_kyber_kyber768_amd64_avx2_dec$76: cmpq $255, %r8 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil Ljade_kem_kyber_kyber768_amd64_avx2_dec$74: jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$75 leaq 15584(%rsp), %rax leaq 1408(%rsp), %rcx movq $0, %rdx cmpq $255, %r9 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$69 Ljade_kem_kyber_kyber768_amd64_avx2_dec$70: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$73 movw %si, (%rax,%r9,2) incq %r9 Ljade_kem_kyber_kyber768_amd64_avx2_dec$73: cmpq $256, %r9 jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$71 cmpw $3329, %r11w jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$71 movw %r11w, (%rax,%r9,2) incq %r9 Ljade_kem_kyber_kyber768_amd64_avx2_dec$72: Ljade_kem_kyber_kyber768_amd64_avx2_dec$71: cmpq $255, %r9 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil Ljade_kem_kyber_kyber768_amd64_avx2_dec$69: jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$70 leaq 16096(%rsp), %rax leaq 1920(%rsp), %rcx movq $0, %rdx cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$64 Ljade_kem_kyber_kyber768_amd64_avx2_dec$65: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$68 movw %si, (%rax,%r13,2) incq %r13 Ljade_kem_kyber_kyber768_amd64_avx2_dec$68: cmpq $256, %r13 jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$66 cmpw $3329, %r11w jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$66 movw %r11w, (%rax,%r13,2) incq %r13 Ljade_kem_kyber_kyber768_amd64_avx2_dec$67: Ljade_kem_kyber_kyber768_amd64_avx2_dec$66: cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil Ljade_kem_kyber_kyber768_amd64_avx2_dec$64: jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$65 cmpq $255, %rdi setbe %al cmpq $255, %r8 setbe %cl orb %cl, %al cmpq $255, %r9 setbe %cl cmpq $255, %r13 setbe %dl orb %dl, %cl orb %al, %cl Ljade_kem_kyber_kyber768_amd64_avx2_dec$62: jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$63 vmovdqu (%rsp), %ymm0 vmovdqu %ymm0, 384(%rsp) movb $2, 416(%rsp) movb $2, 417(%rsp) leaq 384(%rsp), %rax vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vmovdqu %ymm0, 224(%rsp) vmovdqu %ymm0, 256(%rsp) vmovdqu %ymm0, 288(%rsp) vmovdqu %ymm0, 320(%rsp) vmovdqu %ymm0, 352(%rsp) vpbroadcastq (%rax), %ymm5 movq 8(%rax), %rcx movq glob_data + 6208(%rip), %rdx movq %rcx, 160(%rsp,%rdx,8) movq 16(%rax), %rcx movq glob_data + 6216(%rip), %rdx movq %rcx, 160(%rsp,%rdx,8) movq 24(%rax), %rcx movq glob_data + 6224(%rip), %rdx movq %rcx, 160(%rsp,%rdx,8) movb 32(%rax), %cl movq glob_data + 6232(%rip), %rdx shlq $3, %rdx movb %cl, 160(%rsp,%rdx) movb 33(%rax), %al incq %rdx movb %al, 160(%rsp,%rdx) incq %rdx movb $31, 160(%rsp,%rdx) movq glob_data + 6360(%rip), %rax shlq $3, %rax movq $167, %rcx andq $7, %rcx addq %rcx, %rax movb $-128, 160(%rsp,%rax) vmovdqu 192(%rsp), %ymm0 vmovdqu 224(%rsp), %ymm1 vmovdqu 256(%rsp), %ymm2 vmovdqu 288(%rsp), %ymm6 vmovdqu 320(%rsp), %ymm3 vmovdqu 352(%rsp), %ymm4 leaq 384(%rsp), %rax leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 Ljade_kem_kyber_kyber768_amd64_avx2_dec$61: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm3, %ymm7 vpxor %ymm4, %ymm6, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm5, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm5, %ymm5 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm6, %ymm6 vpsllvq 96(%rsi), %ymm6, %ymm7 vpsrlvq 96(%rdi), %ymm6, %ymm6 vpor %ymm7, %ymm6, %ymm10 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm6 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm6, %ymm3, %ymm3 vpxor %ymm9, %ymm4, %ymm4 vpermq $-115, %ymm1, %ymm6 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm4, %ymm1 vpsrlvq 160(%rdi), %ymm4, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm3, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm3 vpblendd $12, %ymm7, %ymm6, %ymm4 vpblendd $12, %ymm6, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm3, %ymm3 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm3, %ymm3 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm3, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm4 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm6, %ymm12 vpxor %ymm6, %ymm1, %ymm3 vpblendd $48, %ymm6, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm5, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm5, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm6, %ymm13, %ymm13 vpblendd $-64, %ymm6, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm3, %ymm2 vpermq $-115, %ymm4, %ymm3 vpermq $114, %ymm12, %ymm4 vpblendd $12, %ymm6, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm6, %ymm9, %ymm6 vpandn %ymm6, %ymm0, %ymm6 vpxor %ymm13, %ymm5, %ymm5 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm6, %ymm6 vpxor (%rcx,%rdx), %ymm5, %ymm5 addq $32, %rdx decq %r8 jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$61 vmovdqu %ymm5, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vmovdqu %ymm1, 224(%rsp) vmovdqu %ymm2, 256(%rsp) vmovdqu %ymm6, 288(%rsp) vmovdqu %ymm3, 320(%rsp) vmovdqu %ymm4, 352(%rsp) movq glob_data + 6200(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) movq glob_data + 6264(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 64(%rax) movq glob_data + 6272(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 72(%rax) movq glob_data + 6280(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 80(%rax) movq glob_data + 6288(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 88(%rax) movq glob_data + 6296(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 96(%rax) movq glob_data + 6304(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 104(%rax) movq glob_data + 6312(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 112(%rax) movq glob_data + 6320(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 120(%rax) movq glob_data + 6328(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 128(%rax) movq glob_data + 6336(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 136(%rax) movq glob_data + 6344(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 144(%rax) movq glob_data + 6352(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 152(%rax) movq glob_data + 6360(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 160(%rax) leaq 552(%rsp), %rax leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 Ljade_kem_kyber_kyber768_amd64_avx2_dec$60: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm3, %ymm7 vpxor %ymm4, %ymm6, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm5, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm5, %ymm5 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm6, %ymm6 vpsllvq 96(%rsi), %ymm6, %ymm7 vpsrlvq 96(%rdi), %ymm6, %ymm6 vpor %ymm7, %ymm6, %ymm10 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm6 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm6, %ymm3, %ymm3 vpxor %ymm9, %ymm4, %ymm4 vpermq $-115, %ymm1, %ymm6 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm4, %ymm1 vpsrlvq 160(%rdi), %ymm4, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm3, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm3 vpblendd $12, %ymm7, %ymm6, %ymm4 vpblendd $12, %ymm6, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm3, %ymm3 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm3, %ymm3 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm3, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm4 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm6, %ymm12 vpxor %ymm6, %ymm1, %ymm3 vpblendd $48, %ymm6, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm5, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm5, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm6, %ymm13, %ymm13 vpblendd $-64, %ymm6, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm3, %ymm2 vpermq $-115, %ymm4, %ymm3 vpermq $114, %ymm12, %ymm4 vpblendd $12, %ymm6, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm6, %ymm9, %ymm6 vpandn %ymm6, %ymm0, %ymm6 vpxor %ymm13, %ymm5, %ymm5 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm6, %ymm6 vpxor (%rcx,%rdx), %ymm5, %ymm5 addq $32, %rdx decq %r8 jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$60 vmovdqu %ymm5, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vmovdqu %ymm1, 224(%rsp) vmovdqu %ymm2, 256(%rsp) vmovdqu %ymm6, 288(%rsp) vmovdqu %ymm3, 320(%rsp) vmovdqu %ymm4, 352(%rsp) movq glob_data + 6200(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) movq glob_data + 6264(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 64(%rax) movq glob_data + 6272(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 72(%rax) movq glob_data + 6280(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 80(%rax) movq glob_data + 6288(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 88(%rax) movq glob_data + 6296(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 96(%rax) movq glob_data + 6304(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 104(%rax) movq glob_data + 6312(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 112(%rax) movq glob_data + 6320(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 120(%rax) movq glob_data + 6328(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 128(%rax) movq glob_data + 6336(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 136(%rax) movq glob_data + 6344(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 144(%rax) movq glob_data + 6352(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 152(%rax) movq glob_data + 6360(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 160(%rax) leaq 720(%rsp), %rax leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 Ljade_kem_kyber_kyber768_amd64_avx2_dec$59: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm3, %ymm7 vpxor %ymm4, %ymm6, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm5, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm5, %ymm5 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm6, %ymm6 vpsllvq 96(%rsi), %ymm6, %ymm7 vpsrlvq 96(%rdi), %ymm6, %ymm6 vpor %ymm7, %ymm6, %ymm10 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm6 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm6, %ymm3, %ymm3 vpxor %ymm9, %ymm4, %ymm4 vpermq $-115, %ymm1, %ymm6 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm4, %ymm1 vpsrlvq 160(%rdi), %ymm4, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm3, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm3 vpblendd $12, %ymm7, %ymm6, %ymm4 vpblendd $12, %ymm6, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm3, %ymm3 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm3, %ymm3 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm3, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm4 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm6, %ymm12 vpxor %ymm6, %ymm1, %ymm3 vpblendd $48, %ymm6, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm5, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm5, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm6, %ymm13, %ymm13 vpblendd $-64, %ymm6, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm3, %ymm2 vpermq $-115, %ymm4, %ymm3 vpermq $114, %ymm12, %ymm4 vpblendd $12, %ymm6, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm6, %ymm9, %ymm6 vpandn %ymm6, %ymm0, %ymm6 vpxor %ymm13, %ymm5, %ymm5 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm6, %ymm6 vpxor (%rcx,%rdx), %ymm5, %ymm5 addq $32, %rdx decq %r8 jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$59 vmovdqu %ymm5, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vmovdqu %ymm1, 224(%rsp) vmovdqu %ymm2, 256(%rsp) vmovdqu %ymm6, 288(%rsp) vmovdqu %ymm3, 320(%rsp) vmovdqu %ymm4, 352(%rsp) movq glob_data + 6200(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) movq glob_data + 6264(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 64(%rax) movq glob_data + 6272(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 72(%rax) movq glob_data + 6280(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 80(%rax) movq glob_data + 6288(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 88(%rax) movq glob_data + 6296(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 96(%rax) movq glob_data + 6304(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 104(%rax) movq glob_data + 6312(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 112(%rax) movq glob_data + 6320(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 120(%rax) movq glob_data + 6328(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 128(%rax) movq glob_data + 6336(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 136(%rax) movq glob_data + 6344(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 144(%rax) movq glob_data + 6352(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 152(%rax) movq glob_data + 6360(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 160(%rax) vmovdqu %ymm5, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vmovdqu %ymm1, 224(%rsp) vmovdqu %ymm2, 256(%rsp) vmovdqu %ymm6, 288(%rsp) vmovdqu %ymm3, 320(%rsp) vmovdqu %ymm4, 352(%rsp) leaq 16608(%rsp), %rbx leaq 384(%rsp), %rbp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$58(%rip), %r11 jmp L_rej_uniform_avx$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$58: cmpq $255, %r13 setbe %al vmovdqu 160(%rsp), %ymm6 vmovdqu 192(%rsp), %ymm0 vmovdqu 224(%rsp), %ymm1 vmovdqu 256(%rsp), %ymm2 vmovdqu 288(%rsp), %ymm3 vmovdqu 320(%rsp), %ymm4 vmovdqu 352(%rsp), %ymm5 jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$50 Ljade_kem_kyber_kyber768_amd64_avx2_dec$51: leaq 384(%rsp), %rax leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 Ljade_kem_kyber_kyber768_amd64_avx2_dec$57: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm4, %ymm7 vpxor %ymm5, %ymm3, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 96(%rsi), %ymm3, %ymm7 vpsrlvq 96(%rdi), %ymm3, %ymm3 vpor %ymm7, %ymm3, %ymm10 vpxor %ymm9, %ymm4, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm4 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm4, %ymm3, %ymm4 vpxor %ymm9, %ymm5, %ymm5 vpermq $-115, %ymm1, %ymm3 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm5, %ymm1 vpsrlvq 160(%rdi), %ymm5, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm4, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm3, %ymm5 vpblendd $12, %ymm3, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm4, %ymm4 vpblendd $48, %ymm10, %ymm5, %ymm5 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm9, %ymm5, %ymm5 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm4, %ymm1, %ymm1 vpandn %ymm11, %ymm5, %ymm5 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm3, %ymm12 vpxor %ymm3, %ymm1, %ymm4 vpblendd $48, %ymm3, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm5, %ymm5 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm6, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm13, %ymm13 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm4, %ymm2 vpermq $-115, %ymm5, %ymm4 vpermq $114, %ymm12, %ymm5 vpblendd $12, %ymm3, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm3, %ymm9, %ymm3 vpandn %ymm3, %ymm0, %ymm3 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm3, %ymm3 vpxor (%rcx,%rdx), %ymm6, %ymm6 addq $32, %rdx decq %r8 jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$57 vmovdqu %ymm6, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vmovdqu %ymm1, 224(%rsp) vmovdqu %ymm2, 256(%rsp) vmovdqu %ymm3, 288(%rsp) vmovdqu %ymm4, 320(%rsp) vmovdqu %ymm5, 352(%rsp) movq glob_data + 6200(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) movq glob_data + 6264(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 64(%rax) movq glob_data + 6272(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 72(%rax) movq glob_data + 6280(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 80(%rax) movq glob_data + 6288(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 88(%rax) movq glob_data + 6296(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 96(%rax) movq glob_data + 6304(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 104(%rax) movq glob_data + 6312(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 112(%rax) movq glob_data + 6320(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 120(%rax) movq glob_data + 6328(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 128(%rax) movq glob_data + 6336(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 136(%rax) movq glob_data + 6344(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 144(%rax) movq glob_data + 6352(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 152(%rax) movq glob_data + 6360(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 160(%rax) leaq 16608(%rsp), %rax leaq 384(%rsp), %rcx movq $0, %rdx cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %dil testb %dil, %sil jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$52 Ljade_kem_kyber_kyber768_amd64_avx2_dec$53: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw (%rcx,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$56 movw %si, (%rax,%r13,2) incq %r13 Ljade_kem_kyber_kyber768_amd64_avx2_dec$56: cmpq $256, %r13 jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$54 cmpw $3329, %r8w jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$54 movw %r8w, (%rax,%r13,2) incq %r13 Ljade_kem_kyber_kyber768_amd64_avx2_dec$55: Ljade_kem_kyber_kyber768_amd64_avx2_dec$54: cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %dil testb %dil, %sil Ljade_kem_kyber_kyber768_amd64_avx2_dec$52: jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$53 cmpq $255, %r13 setbe %al Ljade_kem_kyber_kyber768_amd64_avx2_dec$50: cmpb $0, %al jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$51 leaq 12512(%rsp), %rax leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$49(%rip), %rcx jmp L_nttunpack$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$49: leaq 13024(%rsp), %rax leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$48(%rip), %rcx jmp L_nttunpack$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$48: leaq 13536(%rsp), %rax leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$47(%rip), %rcx jmp L_nttunpack$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$47: leaq 14048(%rsp), %rax leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$46(%rip), %rcx jmp L_nttunpack$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$46: leaq 14560(%rsp), %rax leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$45(%rip), %rcx jmp L_nttunpack$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$45: leaq 15072(%rsp), %rax leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$44(%rip), %rcx jmp L_nttunpack$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$44: leaq 15584(%rsp), %rax leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$43(%rip), %rcx jmp L_nttunpack$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$43: leaq 16096(%rsp), %rax leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$42(%rip), %rcx jmp L_nttunpack$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$42: leaq 16608(%rsp), %rax leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$41(%rip), %rcx jmp L_nttunpack$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$41: movq 17152(%rsp), %r10 movb $0, %cl leaq 7904(%rsp), %rax leaq 8416(%rsp), %rdi leaq 8928(%rsp), %r8 leaq 9440(%rsp), %r9 leaq -1472(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$40(%rip), %rdx movq %rdx, 1464(%rsp) jmp L_poly_getnoise_eta1_4x$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$40: leaq 1472(%rsp), %rsp movb $4, %cl leaq 9952(%rsp), %rax leaq 10464(%rsp), %rdi leaq 2944(%rsp), %r8 leaq 10976(%rsp), %r9 leaq -1472(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$39(%rip), %rdx movq %rdx, 1464(%rsp) jmp L_poly_getnoise_eta1_4x$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$39: leaq 1472(%rsp), %rsp leaq 7904(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$38(%rip), %rdi jmp L_poly_ntt$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$38: leaq 8416(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$37(%rip), %rdi jmp L_poly_ntt$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$37: leaq 8928(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$36(%rip), %rdi jmp L_poly_ntt$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$36: leaq 10976(%rsp), %rcx leaq 12512(%rsp), %rsi leaq 7904(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$35(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$35: leaq 2432(%rsp), %rcx leaq 13024(%rsp), %rsi leaq 8416(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$34(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$34: leaq 10976(%rsp), %rcx leaq 2432(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$33(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$33: leaq 2432(%rsp), %rcx leaq 13536(%rsp), %rsi leaq 8928(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$32(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$32: leaq 10976(%rsp), %rcx leaq 2432(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$31(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$31: leaq 11488(%rsp), %rcx leaq 14048(%rsp), %rsi leaq 7904(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$30(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$30: leaq 2432(%rsp), %rcx leaq 14560(%rsp), %rsi leaq 8416(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$29(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$29: leaq 11488(%rsp), %rcx leaq 2432(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$28(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$28: leaq 2432(%rsp), %rcx leaq 15072(%rsp), %rsi leaq 8928(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$27(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$27: leaq 11488(%rsp), %rcx leaq 2432(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$26(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$26: leaq 12000(%rsp), %rcx leaq 15584(%rsp), %rsi leaq 7904(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$25(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$25: leaq 2432(%rsp), %rcx leaq 16096(%rsp), %rsi leaq 8416(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$24(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$24: leaq 12000(%rsp), %rcx leaq 2432(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$23(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$23: leaq 2432(%rsp), %rcx leaq 16608(%rsp), %rsi leaq 8928(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$22(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$22: leaq 12000(%rsp), %rcx leaq 2432(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$21(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$21: leaq 2432(%rsp), %rcx leaq 6368(%rsp), %rsi leaq 7904(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$20(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$20: leaq 3968(%rsp), %rcx leaq 6880(%rsp), %rsi leaq 8416(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$19(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$19: leaq 2432(%rsp), %rcx leaq 3968(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$18(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$18: leaq 3968(%rsp), %rcx leaq 7392(%rsp), %rsi leaq 8928(%rsp), %rdi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$17(%rip), %r8 jmp L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$17: leaq 2432(%rsp), %rcx leaq 3968(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$16(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$16: leaq 10976(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$15(%rip), %rdi jmp L_poly_invntt$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$15: leaq 11488(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$14(%rip), %rdi jmp L_poly_invntt$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$14: leaq 12000(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$13(%rip), %rdi jmp L_poly_invntt$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$13: leaq 2432(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$12(%rip), %rdi jmp L_poly_invntt$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$12: leaq 10976(%rsp), %rcx leaq 9440(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$11(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$11: leaq 11488(%rsp), %rcx leaq 9952(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$10(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$10: leaq 12000(%rsp), %rcx leaq 10464(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$9(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$9: leaq 2432(%rsp), %rcx leaq 2944(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$8(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$8: leaq 2432(%rsp), %rcx leaq 3456(%rsp), %rsi leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$7(%rip), %rdi jmp L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$7: leaq 10976(%rsp), %rax vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu glob_data + 384(%rip), %ymm1 vmovdqu (%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, (%rax) vmovdqu 32(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 32(%rax) vmovdqu 64(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 64(%rax) vmovdqu 96(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 96(%rax) vmovdqu 128(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 128(%rax) vmovdqu 160(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 160(%rax) vmovdqu 192(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 192(%rax) vmovdqu 224(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 224(%rax) vmovdqu 256(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 256(%rax) vmovdqu 288(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 288(%rax) vmovdqu 320(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 320(%rax) vmovdqu 352(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 352(%rax) vmovdqu 384(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 384(%rax) vmovdqu 416(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 416(%rax) vmovdqu 448(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 448(%rax) vmovdqu 480(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm1 vpsraw $10, %ymm1, %ymm1 vpmullw %ymm0, %ymm1, %ymm0 vpsubw %ymm0, %ymm2, %ymm0 vmovdqu %ymm0, 480(%rax) leaq 11488(%rsp), %rax vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu glob_data + 384(%rip), %ymm1 vmovdqu (%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, (%rax) vmovdqu 32(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 32(%rax) vmovdqu 64(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 64(%rax) vmovdqu 96(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 96(%rax) vmovdqu 128(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 128(%rax) vmovdqu 160(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 160(%rax) vmovdqu 192(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 192(%rax) vmovdqu 224(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 224(%rax) vmovdqu 256(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 256(%rax) vmovdqu 288(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 288(%rax) vmovdqu 320(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 320(%rax) vmovdqu 352(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 352(%rax) vmovdqu 384(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 384(%rax) vmovdqu 416(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 416(%rax) vmovdqu 448(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 448(%rax) vmovdqu 480(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm1 vpsraw $10, %ymm1, %ymm1 vpmullw %ymm0, %ymm1, %ymm0 vpsubw %ymm0, %ymm2, %ymm0 vmovdqu %ymm0, 480(%rax) leaq 12000(%rsp), %rax vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu glob_data + 384(%rip), %ymm1 vmovdqu (%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, (%rax) vmovdqu 32(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 32(%rax) vmovdqu 64(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 64(%rax) vmovdqu 96(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 96(%rax) vmovdqu 128(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 128(%rax) vmovdqu 160(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 160(%rax) vmovdqu 192(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 192(%rax) vmovdqu 224(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 224(%rax) vmovdqu 256(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 256(%rax) vmovdqu 288(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 288(%rax) vmovdqu 320(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 320(%rax) vmovdqu 352(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 352(%rax) vmovdqu 384(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 384(%rax) vmovdqu 416(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 416(%rax) vmovdqu 448(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 448(%rax) vmovdqu 480(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm1 vpsraw $10, %ymm1, %ymm1 vpmullw %ymm0, %ymm1, %ymm0 vpsubw %ymm0, %ymm2, %ymm0 vmovdqu %ymm0, 480(%rax) leaq 2432(%rsp), %rax vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu glob_data + 384(%rip), %ymm1 vmovdqu (%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, (%rax) vmovdqu 32(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 32(%rax) vmovdqu 64(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 64(%rax) vmovdqu 96(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 96(%rax) vmovdqu 128(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 128(%rax) vmovdqu 160(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 160(%rax) vmovdqu 192(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 192(%rax) vmovdqu 224(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 224(%rax) vmovdqu 256(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 256(%rax) vmovdqu 288(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 288(%rax) vmovdqu 320(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 320(%rax) vmovdqu 352(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 352(%rax) vmovdqu 384(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 384(%rax) vmovdqu 416(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 416(%rax) vmovdqu 448(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 448(%rax) vmovdqu 480(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm1 vpsraw $10, %ymm1, %ymm1 vpmullw %ymm0, %ymm1, %ymm0 vpsubw %ymm0, %ymm2, %ymm0 vmovdqu %ymm0, 480(%rax) movq 17144(%rsp), %rax movq %rax, %rdx leaq 10976(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$6(%rip), %r8 jmp L_poly_csubq$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$6: leaq 11488(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$5(%rip), %r8 jmp L_poly_csubq$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$5: leaq 12000(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$4(%rip), %r8 jmp L_poly_csubq$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$4: leaq glob_data + 384(%rip), %rcx vmovdqu (%rcx), %ymm0 vpsllw $3, %ymm0, %ymm1 vpbroadcastw glob_data + 6422(%rip), %ymm2 vpbroadcastw glob_data + 6420(%rip), %ymm3 vpbroadcastw glob_data + 6418(%rip), %ymm4 vpbroadcastq glob_data + 6184(%rip), %ymm5 vpbroadcastq glob_data + 6176(%rip), %ymm6 vmovdqu glob_data + 32(%rip), %ymm7 vmovdqu 10976(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, (%rdx) vpextrd $0, %xmm8, 16(%rdx) vmovdqu 11008(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 20(%rdx) vpextrd $0, %xmm8, 36(%rdx) vmovdqu 11040(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 40(%rdx) vpextrd $0, %xmm8, 56(%rdx) vmovdqu 11072(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 60(%rdx) vpextrd $0, %xmm8, 76(%rdx) vmovdqu 11104(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 80(%rdx) vpextrd $0, %xmm8, 96(%rdx) vmovdqu 11136(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 100(%rdx) vpextrd $0, %xmm8, 116(%rdx) vmovdqu 11168(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 120(%rdx) vpextrd $0, %xmm8, 136(%rdx) vmovdqu 11200(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 140(%rdx) vpextrd $0, %xmm8, 156(%rdx) vmovdqu 11232(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 160(%rdx) vpextrd $0, %xmm8, 176(%rdx) vmovdqu 11264(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 180(%rdx) vpextrd $0, %xmm8, 196(%rdx) vmovdqu 11296(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 200(%rdx) vpextrd $0, %xmm8, 216(%rdx) vmovdqu 11328(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 220(%rdx) vpextrd $0, %xmm8, 236(%rdx) vmovdqu 11360(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 240(%rdx) vpextrd $0, %xmm8, 256(%rdx) vmovdqu 11392(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 260(%rdx) vpextrd $0, %xmm8, 276(%rdx) vmovdqu 11424(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 280(%rdx) vpextrd $0, %xmm8, 296(%rdx) vmovdqu 11456(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 300(%rdx) vpextrd $0, %xmm8, 316(%rdx) vmovdqu 11488(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 320(%rdx) vpextrd $0, %xmm8, 336(%rdx) vmovdqu 11520(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 340(%rdx) vpextrd $0, %xmm8, 356(%rdx) vmovdqu 11552(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 360(%rdx) vpextrd $0, %xmm8, 376(%rdx) vmovdqu 11584(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 380(%rdx) vpextrd $0, %xmm8, 396(%rdx) vmovdqu 11616(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 400(%rdx) vpextrd $0, %xmm8, 416(%rdx) vmovdqu 11648(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 420(%rdx) vpextrd $0, %xmm8, 436(%rdx) vmovdqu 11680(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 440(%rdx) vpextrd $0, %xmm8, 456(%rdx) vmovdqu 11712(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 460(%rdx) vpextrd $0, %xmm8, 476(%rdx) vmovdqu 11744(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 480(%rdx) vpextrd $0, %xmm8, 496(%rdx) vmovdqu 11776(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 500(%rdx) vpextrd $0, %xmm8, 516(%rdx) vmovdqu 11808(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 520(%rdx) vpextrd $0, %xmm8, 536(%rdx) vmovdqu 11840(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 540(%rdx) vpextrd $0, %xmm8, 556(%rdx) vmovdqu 11872(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 560(%rdx) vpextrd $0, %xmm8, 576(%rdx) vmovdqu 11904(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 580(%rdx) vpextrd $0, %xmm8, 596(%rdx) vmovdqu 11936(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 600(%rdx) vpextrd $0, %xmm8, 616(%rdx) vmovdqu 11968(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 620(%rdx) vpextrd $0, %xmm8, 636(%rdx) vmovdqu 12000(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 640(%rdx) vpextrd $0, %xmm8, 656(%rdx) vmovdqu 12032(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 660(%rdx) vpextrd $0, %xmm8, 676(%rdx) vmovdqu 12064(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 680(%rdx) vpextrd $0, %xmm8, 696(%rdx) vmovdqu 12096(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 700(%rdx) vpextrd $0, %xmm8, 716(%rdx) vmovdqu 12128(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 720(%rdx) vpextrd $0, %xmm8, 736(%rdx) vmovdqu 12160(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 740(%rdx) vpextrd $0, %xmm8, 756(%rdx) vmovdqu 12192(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 760(%rdx) vpextrd $0, %xmm8, 776(%rdx) vmovdqu 12224(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 780(%rdx) vpextrd $0, %xmm8, 796(%rdx) vmovdqu 12256(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 800(%rdx) vpextrd $0, %xmm8, 816(%rdx) vmovdqu 12288(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 820(%rdx) vpextrd $0, %xmm8, 836(%rdx) vmovdqu 12320(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 840(%rdx) vpextrd $0, %xmm8, 856(%rdx) vmovdqu 12352(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 860(%rdx) vpextrd $0, %xmm8, 876(%rdx) vmovdqu 12384(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 880(%rdx) vpextrd $0, %xmm8, 896(%rdx) vmovdqu 12416(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 900(%rdx) vpextrd $0, %xmm8, 916(%rdx) vmovdqu 12448(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 920(%rdx) vpextrd $0, %xmm8, 936(%rdx) vmovdqu 12480(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm1 vpaddw %ymm2, %ymm8, %ymm2 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm0 vpsubw %ymm2, %ymm1, %ymm2 vpandn %ymm2, %ymm1, %ymm1 vpsrlw $15, %ymm1, %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vpmulhrsw %ymm3, %ymm0, %ymm0 vpand %ymm4, %ymm0, %ymm0 vpmaddwd %ymm5, %ymm0, %ymm0 vpsllvd %ymm6, %ymm0, %ymm0 vpsrlq $12, %ymm0, %ymm0 vpshufb %ymm7, %ymm0, %ymm0 vmovdqu %xmm0, %xmm1 vextracti128 $1, %ymm0, %xmm0 vpblendw $-32, %xmm0, %xmm1, %xmm1 vmovdqu %xmm1, 940(%rdx) vpextrd $0, %xmm0, 956(%rdx) leaq 960(%rax), %rax leaq 2432(%rsp), %rcx leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$3(%rip), %rsi jmp L_poly_compress_1$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$3: movq 17128(%rsp), %r8 leaq 5280(%rsp), %rax movq $0, %rcx movq $1, %rdx vpxor %ymm0, %ymm0, %ymm0 vmovdqu (%rax), %ymm1 vmovdqu (%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 32(%rax), %ymm1 vmovdqu 32(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 64(%rax), %ymm1 vmovdqu 64(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 96(%rax), %ymm1 vmovdqu 96(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 128(%rax), %ymm1 vmovdqu 128(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 160(%rax), %ymm1 vmovdqu 160(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 192(%rax), %ymm1 vmovdqu 192(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 224(%rax), %ymm1 vmovdqu 224(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 256(%rax), %ymm1 vmovdqu 256(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 288(%rax), %ymm1 vmovdqu 288(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 320(%rax), %ymm1 vmovdqu 320(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 352(%rax), %ymm1 vmovdqu 352(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 384(%rax), %ymm1 vmovdqu 384(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 416(%rax), %ymm1 vmovdqu 416(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 448(%rax), %ymm1 vmovdqu 448(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 480(%rax), %ymm1 vmovdqu 480(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 512(%rax), %ymm1 vmovdqu 512(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 544(%rax), %ymm1 vmovdqu 544(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 576(%rax), %ymm1 vmovdqu 576(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 608(%rax), %ymm1 vmovdqu 608(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 640(%rax), %ymm1 vmovdqu 640(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 672(%rax), %ymm1 vmovdqu 672(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 704(%rax), %ymm1 vmovdqu 704(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 736(%rax), %ymm1 vmovdqu 736(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 768(%rax), %ymm1 vmovdqu 768(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 800(%rax), %ymm1 vmovdqu 800(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 832(%rax), %ymm1 vmovdqu 832(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 864(%rax), %ymm1 vmovdqu 864(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 896(%rax), %ymm1 vmovdqu 896(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 928(%rax), %ymm1 vmovdqu 928(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 960(%rax), %ymm1 vmovdqu 960(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 992(%rax), %ymm1 vmovdqu 992(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 1024(%rax), %ymm1 vmovdqu 1024(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vmovdqu 1056(%rax), %ymm1 vmovdqu 1056(%r8), %ymm2 vpxor %ymm2, %ymm1, %ymm1 vpor %ymm1, %ymm0, %ymm0 vptest %ymm0, %ymm0 cmovne %rdx, %rcx negq %rcx shrq $63, %rcx movq 17136(%rsp), %rax addq $64, %rax addq $2304, %rax leaq 96(%rsp), %rdx negq %rcx movq %rcx, 17136(%rsp) vpbroadcastq 17136(%rsp), %ymm0 vmovdqu (%rdx), %ymm1 vmovdqu (%rax), %ymm2 vpblendvb %ymm0, %ymm2, %ymm1, %ymm0 vmovdqu %ymm0, (%rdx) movq $1088, %rdi leaq 128(%rsp), %rax leaq -256(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$2(%rip), %rcx movq %rcx, 224(%rsp) jmp L_sha3_256$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$2: leaq 256(%rsp), %rsp movq 17120(%rsp), %rdx movq $32, %rcx leaq 96(%rsp), %rax leaq -256(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$1(%rip), %rsi movq %rsi, 224(%rsp) jmp L_shake256_64$1 Ljade_kem_kyber_kyber768_amd64_avx2_dec$1: leaq 256(%rsp), %rsp xorq %rax, %rax movq 17160(%rsp), %rbx movq 17168(%rsp), %rbp movq 17176(%rsp), %r12 movq 17184(%rsp), %r13 movq 17192(%rsp), %rsp ret _jade_kem_kyber_kyber768_amd64_avx2_enc: jade_kem_kyber_kyber768_amd64_avx2_enc: movq %rsp, %rax leaq -72(%rsp), %rsp andq $-32, %rsp movq %rax, 64(%rsp) movq %rbx, 32(%rsp) movq %rbp, 40(%rsp) movq %r12, 48(%rsp) movq %r13, 56(%rsp) movq %rdi, %rbp movq %rsi, %r12 movq %rdx, %rbx movq %rsp, %rdi movq $32, %rsi call __jasmin_syscall_randombytes__ movq %rsp, %rcx leaq -16064(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_enc$1(%rip), %rax movq %rax, 16056(%rsp) jmp L__crypto_kem_enc_derand_jazz$1 Ljade_kem_kyber_kyber768_amd64_avx2_enc$1: leaq 16064(%rsp), %rsp xorq %rax, %rax movq 32(%rsp), %rbx movq 40(%rsp), %rbp movq 48(%rsp), %r12 movq 56(%rsp), %r13 movq 64(%rsp), %rsp ret _jade_kem_kyber_kyber768_amd64_avx2_enc_derand: jade_kem_kyber_kyber768_amd64_avx2_enc_derand: movq %rsp, %rax leaq -72(%rsp), %rsp andq $-32, %rsp movq %rax, 64(%rsp) movq %rbx, 32(%rsp) movq %rbp, 40(%rsp) movq %r12, 48(%rsp) movq %r13, 56(%rsp) movq %rdi, %rbp movq %rsi, %r12 movq %rdx, %rbx movq %rsp, %rax movb (%rcx), %dl movb %dl, (%rax) movb 1(%rcx), %dl movb %dl, 1(%rax) movb 2(%rcx), %dl movb %dl, 2(%rax) movb 3(%rcx), %dl movb %dl, 3(%rax) movb 4(%rcx), %dl movb %dl, 4(%rax) movb 5(%rcx), %dl movb %dl, 5(%rax) movb 6(%rcx), %dl movb %dl, 6(%rax) movb 7(%rcx), %dl movb %dl, 7(%rax) movb 8(%rcx), %dl movb %dl, 8(%rax) movb 9(%rcx), %dl movb %dl, 9(%rax) movb 10(%rcx), %dl movb %dl, 10(%rax) movb 11(%rcx), %dl movb %dl, 11(%rax) movb 12(%rcx), %dl movb %dl, 12(%rax) movb 13(%rcx), %dl movb %dl, 13(%rax) movb 14(%rcx), %dl movb %dl, 14(%rax) movb 15(%rcx), %dl movb %dl, 15(%rax) movb 16(%rcx), %dl movb %dl, 16(%rax) movb 17(%rcx), %dl movb %dl, 17(%rax) movb 18(%rcx), %dl movb %dl, 18(%rax) movb 19(%rcx), %dl movb %dl, 19(%rax) movb 20(%rcx), %dl movb %dl, 20(%rax) movb 21(%rcx), %dl movb %dl, 21(%rax) movb 22(%rcx), %dl movb %dl, 22(%rax) movb 23(%rcx), %dl movb %dl, 23(%rax) movb 24(%rcx), %dl movb %dl, 24(%rax) movb 25(%rcx), %dl movb %dl, 25(%rax) movb 26(%rcx), %dl movb %dl, 26(%rax) movb 27(%rcx), %dl movb %dl, 27(%rax) movb 28(%rcx), %dl movb %dl, 28(%rax) movb 29(%rcx), %dl movb %dl, 29(%rax) movb 30(%rcx), %dl movb %dl, 30(%rax) movb 31(%rcx), %cl movb %cl, 31(%rax) movq %rsp, %rcx leaq -16064(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_enc_derand$1(%rip), %rax movq %rax, 16056(%rsp) jmp L__crypto_kem_enc_derand_jazz$1 Ljade_kem_kyber_kyber768_amd64_avx2_enc_derand$1: leaq 16064(%rsp), %rsp xorq %rax, %rax movq 32(%rsp), %rbx movq 40(%rsp), %rbp movq 48(%rsp), %r12 movq 56(%rsp), %r13 movq 64(%rsp), %rsp ret _jade_kem_kyber_kyber768_amd64_avx2_keypair: jade_kem_kyber_kyber768_amd64_avx2_keypair: movq %rsp, %rax leaq -104(%rsp), %rsp andq $-32, %rsp movq %rax, 96(%rsp) movq %rbx, 64(%rsp) movq %rbp, 72(%rsp) movq %r12, 80(%rsp) movq %r13, 88(%rsp) movq %rdi, %rbp movq %rsi, %rbx movq %rsp, %rdi movq $64, %rsi call __jasmin_syscall_randombytes__ movq %rsp, %rax leaq -13024(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_keypair$1(%rip), %rcx movq %rcx, 13000(%rsp) jmp L__crypto_kem_keypair_derand_jazz$1 Ljade_kem_kyber_kyber768_amd64_avx2_keypair$1: leaq 13024(%rsp), %rsp xorq %rax, %rax movq 64(%rsp), %rbx movq 72(%rsp), %rbp movq 80(%rsp), %r12 movq 88(%rsp), %r13 movq 96(%rsp), %rsp ret _jade_kem_kyber_kyber768_amd64_avx2_keypair_derand: jade_kem_kyber_kyber768_amd64_avx2_keypair_derand: movq %rsp, %rax leaq -104(%rsp), %rsp andq $-32, %rsp movq %rax, 96(%rsp) movq %rbx, 64(%rsp) movq %rbp, 72(%rsp) movq %r12, 80(%rsp) movq %r13, 88(%rsp) movq %rdi, %rbp movq %rsi, %rbx movq %rsp, %rax movb (%rdx), %cl movb %cl, (%rax) movb 1(%rdx), %cl movb %cl, 1(%rax) movb 2(%rdx), %cl movb %cl, 2(%rax) movb 3(%rdx), %cl movb %cl, 3(%rax) movb 4(%rdx), %cl movb %cl, 4(%rax) movb 5(%rdx), %cl movb %cl, 5(%rax) movb 6(%rdx), %cl movb %cl, 6(%rax) movb 7(%rdx), %cl movb %cl, 7(%rax) movb 8(%rdx), %cl movb %cl, 8(%rax) movb 9(%rdx), %cl movb %cl, 9(%rax) movb 10(%rdx), %cl movb %cl, 10(%rax) movb 11(%rdx), %cl movb %cl, 11(%rax) movb 12(%rdx), %cl movb %cl, 12(%rax) movb 13(%rdx), %cl movb %cl, 13(%rax) movb 14(%rdx), %cl movb %cl, 14(%rax) movb 15(%rdx), %cl movb %cl, 15(%rax) movb 16(%rdx), %cl movb %cl, 16(%rax) movb 17(%rdx), %cl movb %cl, 17(%rax) movb 18(%rdx), %cl movb %cl, 18(%rax) movb 19(%rdx), %cl movb %cl, 19(%rax) movb 20(%rdx), %cl movb %cl, 20(%rax) movb 21(%rdx), %cl movb %cl, 21(%rax) movb 22(%rdx), %cl movb %cl, 22(%rax) movb 23(%rdx), %cl movb %cl, 23(%rax) movb 24(%rdx), %cl movb %cl, 24(%rax) movb 25(%rdx), %cl movb %cl, 25(%rax) movb 26(%rdx), %cl movb %cl, 26(%rax) movb 27(%rdx), %cl movb %cl, 27(%rax) movb 28(%rdx), %cl movb %cl, 28(%rax) movb 29(%rdx), %cl movb %cl, 29(%rax) movb 30(%rdx), %cl movb %cl, 30(%rax) movb 31(%rdx), %cl movb %cl, 31(%rax) movb 32(%rdx), %cl movb %cl, 32(%rax) movb 33(%rdx), %cl movb %cl, 33(%rax) movb 34(%rdx), %cl movb %cl, 34(%rax) movb 35(%rdx), %cl movb %cl, 35(%rax) movb 36(%rdx), %cl movb %cl, 36(%rax) movb 37(%rdx), %cl movb %cl, 37(%rax) movb 38(%rdx), %cl movb %cl, 38(%rax) movb 39(%rdx), %cl movb %cl, 39(%rax) movb 40(%rdx), %cl movb %cl, 40(%rax) movb 41(%rdx), %cl movb %cl, 41(%rax) movb 42(%rdx), %cl movb %cl, 42(%rax) movb 43(%rdx), %cl movb %cl, 43(%rax) movb 44(%rdx), %cl movb %cl, 44(%rax) movb 45(%rdx), %cl movb %cl, 45(%rax) movb 46(%rdx), %cl movb %cl, 46(%rax) movb 47(%rdx), %cl movb %cl, 47(%rax) movb 48(%rdx), %cl movb %cl, 48(%rax) movb 49(%rdx), %cl movb %cl, 49(%rax) movb 50(%rdx), %cl movb %cl, 50(%rax) movb 51(%rdx), %cl movb %cl, 51(%rax) movb 52(%rdx), %cl movb %cl, 52(%rax) movb 53(%rdx), %cl movb %cl, 53(%rax) movb 54(%rdx), %cl movb %cl, 54(%rax) movb 55(%rdx), %cl movb %cl, 55(%rax) movb 56(%rdx), %cl movb %cl, 56(%rax) movb 57(%rdx), %cl movb %cl, 57(%rax) movb 58(%rdx), %cl movb %cl, 58(%rax) movb 59(%rdx), %cl movb %cl, 59(%rax) movb 60(%rdx), %cl movb %cl, 60(%rax) movb 61(%rdx), %cl movb %cl, 61(%rax) movb 62(%rdx), %cl movb %cl, 62(%rax) movb 63(%rdx), %cl movb %cl, 63(%rax) movq %rsp, %rax leaq -13024(%rsp), %rsp leaq Ljade_kem_kyber_kyber768_amd64_avx2_keypair_derand$1(%rip), %rcx movq %rcx, 13000(%rsp) jmp L__crypto_kem_keypair_derand_jazz$1 Ljade_kem_kyber_kyber768_amd64_avx2_keypair_derand$1: leaq 13024(%rsp), %rsp xorq %rax, %rax movq 64(%rsp), %rbx movq 72(%rsp), %rbp movq 80(%rsp), %r12 movq 88(%rsp), %r13 movq 96(%rsp), %rsp ret L__crypto_kem_enc_derand_jazz$1: movq %rbx, 16032(%rsp) movq %rbp, 16040(%rsp) movq %r12, 16048(%rsp) leaq 32(%rsp), %rax leaq -256(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$133(%rip), %rdx movq %rdx, 224(%rsp) jmp L_sha3_256_32$1 L__crypto_kem_enc_derand_jazz$133: leaq 256(%rsp), %rsp movq 16032(%rsp), %r8 movq $1184, %rdi leaq 64(%rsp), %rax leaq -256(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$132(%rip), %rcx movq %rcx, 224(%rsp) jmp L_sha3_256$1 L__crypto_kem_enc_derand_jazz$132: leaq 256(%rsp), %rsp leaq 96(%rsp), %rax leaq 32(%rsp), %rcx leaq -256(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$131(%rip), %rdx movq %rdx, 224(%rsp) jmp L_sha3_512_64$1 L__crypto_kem_enc_derand_jazz$131: leaq 256(%rsp), %rsp movq 16032(%rsp), %rcx leaq 32(%rsp), %rax leaq 128(%rsp), %rdx movq %rcx, %rdi leaq 5280(%rsp), %r8 leaq L__crypto_kem_enc_derand_jazz$130(%rip), %r10 jmp L_poly_frombytes$1 L__crypto_kem_enc_derand_jazz$130: addq $384, %rdi leaq 5792(%rsp), %r8 leaq L__crypto_kem_enc_derand_jazz$129(%rip), %r10 jmp L_poly_frombytes$1 L__crypto_kem_enc_derand_jazz$129: addq $384, %rdi leaq 6304(%rsp), %r8 leaq L__crypto_kem_enc_derand_jazz$128(%rip), %r10 jmp L_poly_frombytes$1 L__crypto_kem_enc_derand_jazz$128: movq $0, %rsi addq $1152, %rcx jmp L__crypto_kem_enc_derand_jazz$126 L__crypto_kem_enc_derand_jazz$127: movq (%rcx), %rdi movq %rdi, (%rsp,%rsi,8) addq $8, %rcx incq %rsi L__crypto_kem_enc_derand_jazz$126: cmpq $4, %rsi jb L__crypto_kem_enc_derand_jazz$127 leaq 2432(%rsp), %rcx leaq L__crypto_kem_enc_derand_jazz$125(%rip), %r8 jmp L_poly_frommsg_1$1 L__crypto_kem_enc_derand_jazz$125: movq %rdx, 16032(%rsp) vmovdqu (%rsp), %ymm0 vmovdqu %ymm0, 384(%rsp) vmovdqu %ymm0, 896(%rsp) vmovdqu %ymm0, 1408(%rsp) vmovdqu %ymm0, 1920(%rsp) vmovdqu %ymm0, (%rsp) movb $0, 416(%rsp) movb $0, 417(%rsp) movb $0, 928(%rsp) movb $1, 929(%rsp) movb $0, 1440(%rsp) movb $2, 1441(%rsp) movb $1, 1952(%rsp) movb $0, 1953(%rsp) leaq 4480(%rsp), %rax leaq 384(%rsp), %rcx leaq 896(%rsp), %rdx leaq 1408(%rsp), %rsi leaq 1920(%rsp), %rdi leaq -8(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$124(%rip), %r8 movq %r8, (%rsp) jmp L_shake128_absorb4x_34$1 L__crypto_kem_enc_derand_jazz$124: leaq 8(%rsp), %rsp leaq 4480(%rsp), %rax leaq 384(%rsp), %rdi leaq 896(%rsp), %r8 leaq 1408(%rsp), %r9 leaq 1920(%rsp), %r10 movq %rdi, %r11 movq %r8, %rbx movq %r9, %rbp movq %r10, %r12 leaq -832(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$123(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_enc_derand_jazz$123: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r11) vmovhpd %xmm1, (%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbp) vmovhpd %xmm0, (%r12) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r11) vmovhpd %xmm1, 8(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbp) vmovhpd %xmm0, 8(%r12) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r11) vmovhpd %xmm1, 16(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbp) vmovhpd %xmm0, 16(%r12) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r11) vmovhpd %xmm1, 24(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbp) vmovhpd %xmm0, 24(%r12) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r11) vmovhpd %xmm1, 32(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbp) vmovhpd %xmm0, 32(%r12) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r11) vmovhpd %xmm1, 40(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbp) vmovhpd %xmm0, 40(%r12) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r11) vmovhpd %xmm1, 48(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbp) vmovhpd %xmm0, 48(%r12) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r11) vmovhpd %xmm1, 56(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbp) vmovhpd %xmm0, 56(%r12) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r11) vmovhpd %xmm1, 64(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbp) vmovhpd %xmm0, 64(%r12) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r11) vmovhpd %xmm1, 72(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbp) vmovhpd %xmm0, 72(%r12) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r11) vmovhpd %xmm1, 80(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbp) vmovhpd %xmm0, 80(%r12) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r11) vmovhpd %xmm1, 88(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbp) vmovhpd %xmm0, 88(%r12) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r11) vmovhpd %xmm1, 96(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbp) vmovhpd %xmm0, 96(%r12) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r11) vmovhpd %xmm1, 104(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbp) vmovhpd %xmm0, 104(%r12) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r11) vmovhpd %xmm1, 112(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbp) vmovhpd %xmm0, 112(%r12) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r11) vmovhpd %xmm1, 120(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbp) vmovhpd %xmm0, 120(%r12) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r11) vmovhpd %xmm1, 128(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbp) vmovhpd %xmm0, 128(%r12) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r11) vmovhpd %xmm1, 136(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbp) vmovhpd %xmm0, 136(%r12) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r11) vmovhpd %xmm1, 144(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbp) vmovhpd %xmm0, 144(%r12) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r11) vmovhpd %xmm1, 152(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbp) vmovhpd %xmm0, 152(%r12) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r11) vmovhpd %xmm1, 160(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbp) vmovhpd %xmm0, 160(%r12) leaq 168(%rdi), %r11 leaq 168(%r8), %rbx leaq 168(%r9), %rbp leaq 168(%r10), %r12 leaq -832(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$122(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_enc_derand_jazz$122: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r11) vmovhpd %xmm1, (%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbp) vmovhpd %xmm0, (%r12) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r11) vmovhpd %xmm1, 8(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbp) vmovhpd %xmm0, 8(%r12) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r11) vmovhpd %xmm1, 16(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbp) vmovhpd %xmm0, 16(%r12) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r11) vmovhpd %xmm1, 24(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbp) vmovhpd %xmm0, 24(%r12) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r11) vmovhpd %xmm1, 32(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbp) vmovhpd %xmm0, 32(%r12) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r11) vmovhpd %xmm1, 40(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbp) vmovhpd %xmm0, 40(%r12) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r11) vmovhpd %xmm1, 48(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbp) vmovhpd %xmm0, 48(%r12) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r11) vmovhpd %xmm1, 56(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbp) vmovhpd %xmm0, 56(%r12) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r11) vmovhpd %xmm1, 64(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbp) vmovhpd %xmm0, 64(%r12) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r11) vmovhpd %xmm1, 72(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbp) vmovhpd %xmm0, 72(%r12) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r11) vmovhpd %xmm1, 80(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbp) vmovhpd %xmm0, 80(%r12) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r11) vmovhpd %xmm1, 88(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbp) vmovhpd %xmm0, 88(%r12) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r11) vmovhpd %xmm1, 96(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbp) vmovhpd %xmm0, 96(%r12) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r11) vmovhpd %xmm1, 104(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbp) vmovhpd %xmm0, 104(%r12) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r11) vmovhpd %xmm1, 112(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbp) vmovhpd %xmm0, 112(%r12) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r11) vmovhpd %xmm1, 120(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbp) vmovhpd %xmm0, 120(%r12) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r11) vmovhpd %xmm1, 128(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbp) vmovhpd %xmm0, 128(%r12) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r11) vmovhpd %xmm1, 136(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbp) vmovhpd %xmm0, 136(%r12) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r11) vmovhpd %xmm1, 144(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbp) vmovhpd %xmm0, 144(%r12) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r11) vmovhpd %xmm1, 152(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbp) vmovhpd %xmm0, 152(%r12) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r11) vmovhpd %xmm1, 160(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbp) vmovhpd %xmm0, 160(%r12) leaq 336(%rdi), %rdi leaq 336(%r8), %r8 leaq 336(%r9), %r9 leaq 336(%r10), %r10 leaq -832(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$121(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_enc_derand_jazz$121: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%rdi) vmovhpd %xmm1, (%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%r9) vmovhpd %xmm0, (%r10) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%rdi) vmovhpd %xmm1, 8(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%r9) vmovhpd %xmm0, 8(%r10) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%rdi) vmovhpd %xmm1, 16(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%r9) vmovhpd %xmm0, 16(%r10) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%rdi) vmovhpd %xmm1, 24(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%r9) vmovhpd %xmm0, 24(%r10) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%rdi) vmovhpd %xmm1, 32(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%r9) vmovhpd %xmm0, 32(%r10) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%rdi) vmovhpd %xmm1, 40(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%r9) vmovhpd %xmm0, 40(%r10) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%rdi) vmovhpd %xmm1, 48(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%r9) vmovhpd %xmm0, 48(%r10) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%rdi) vmovhpd %xmm1, 56(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%r9) vmovhpd %xmm0, 56(%r10) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%rdi) vmovhpd %xmm1, 64(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%r9) vmovhpd %xmm0, 64(%r10) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%rdi) vmovhpd %xmm1, 72(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%r9) vmovhpd %xmm0, 72(%r10) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%rdi) vmovhpd %xmm1, 80(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%r9) vmovhpd %xmm0, 80(%r10) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%rdi) vmovhpd %xmm1, 88(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%r9) vmovhpd %xmm0, 88(%r10) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%rdi) vmovhpd %xmm1, 96(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%r9) vmovhpd %xmm0, 96(%r10) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%rdi) vmovhpd %xmm1, 104(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%r9) vmovhpd %xmm0, 104(%r10) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%rdi) vmovhpd %xmm1, 112(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%r9) vmovhpd %xmm0, 112(%r10) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%rdi) vmovhpd %xmm1, 120(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%r9) vmovhpd %xmm0, 120(%r10) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%rdi) vmovhpd %xmm1, 128(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%r9) vmovhpd %xmm0, 128(%r10) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%rdi) vmovhpd %xmm1, 136(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%r9) vmovhpd %xmm0, 136(%r10) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%rdi) vmovhpd %xmm1, 144(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%r9) vmovhpd %xmm0, 144(%r10) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%rdi) vmovhpd %xmm1, 152(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%r9) vmovhpd %xmm0, 152(%r10) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%rdi) vmovhpd %xmm1, 160(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%r9) vmovhpd %xmm0, 160(%r10) leaq 11424(%rsp), %rbx leaq 384(%rsp), %rbp leaq L__crypto_kem_enc_derand_jazz$120(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_enc_derand_jazz$120: movq %r13, %r9 leaq 11936(%rsp), %rbx leaq 896(%rsp), %rbp leaq L__crypto_kem_enc_derand_jazz$119(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_enc_derand_jazz$119: movq %r13, %rdi leaq 12448(%rsp), %rbx leaq 1408(%rsp), %rbp leaq L__crypto_kem_enc_derand_jazz$118(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_enc_derand_jazz$118: movq %r13, %r8 leaq 12960(%rsp), %rbx leaq 1920(%rsp), %rbp leaq L__crypto_kem_enc_derand_jazz$117(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_enc_derand_jazz$117: cmpq $255, %r9 setbe %al cmpq $255, %rdi setbe %cl orb %cl, %al cmpq $255, %r8 setbe %cl cmpq $255, %r13 setbe %dl orb %dl, %cl orb %al, %cl jmp L__crypto_kem_enc_derand_jazz$94 L__crypto_kem_enc_derand_jazz$95: leaq 4480(%rsp), %rax leaq 384(%rsp), %r10 leaq 896(%rsp), %r11 leaq 1408(%rsp), %rbx leaq 1920(%rsp), %rbp leaq -832(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$116(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_enc_derand_jazz$116: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r10) vmovhpd %xmm1, (%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbx) vmovhpd %xmm0, (%rbp) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r10) vmovhpd %xmm1, 8(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbx) vmovhpd %xmm0, 8(%rbp) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r10) vmovhpd %xmm1, 16(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbx) vmovhpd %xmm0, 16(%rbp) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r10) vmovhpd %xmm1, 24(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbx) vmovhpd %xmm0, 24(%rbp) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r10) vmovhpd %xmm1, 32(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbx) vmovhpd %xmm0, 32(%rbp) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r10) vmovhpd %xmm1, 40(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbx) vmovhpd %xmm0, 40(%rbp) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r10) vmovhpd %xmm1, 48(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbx) vmovhpd %xmm0, 48(%rbp) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r10) vmovhpd %xmm1, 56(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbx) vmovhpd %xmm0, 56(%rbp) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r10) vmovhpd %xmm1, 64(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbx) vmovhpd %xmm0, 64(%rbp) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r10) vmovhpd %xmm1, 72(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbx) vmovhpd %xmm0, 72(%rbp) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r10) vmovhpd %xmm1, 80(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbx) vmovhpd %xmm0, 80(%rbp) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r10) vmovhpd %xmm1, 88(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbx) vmovhpd %xmm0, 88(%rbp) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r10) vmovhpd %xmm1, 96(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbx) vmovhpd %xmm0, 96(%rbp) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r10) vmovhpd %xmm1, 104(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbx) vmovhpd %xmm0, 104(%rbp) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r10) vmovhpd %xmm1, 112(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbx) vmovhpd %xmm0, 112(%rbp) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r10) vmovhpd %xmm1, 120(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbx) vmovhpd %xmm0, 120(%rbp) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r10) vmovhpd %xmm1, 128(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbx) vmovhpd %xmm0, 128(%rbp) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r10) vmovhpd %xmm1, 136(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbx) vmovhpd %xmm0, 136(%rbp) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r10) vmovhpd %xmm1, 144(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbx) vmovhpd %xmm0, 144(%rbp) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r10) vmovhpd %xmm1, 152(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbx) vmovhpd %xmm0, 152(%rbp) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r10) vmovhpd %xmm1, 160(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbx) vmovhpd %xmm0, 160(%rbp) leaq 11424(%rsp), %rax leaq 384(%rsp), %rcx movq $0, %rdx cmpq $255, %r9 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_enc_derand_jazz$111 L__crypto_kem_enc_derand_jazz$112: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_enc_derand_jazz$115 movw %si, (%rax,%r9,2) incq %r9 L__crypto_kem_enc_derand_jazz$115: cmpq $256, %r9 jnb L__crypto_kem_enc_derand_jazz$113 cmpw $3329, %r11w jnb L__crypto_kem_enc_derand_jazz$113 movw %r11w, (%rax,%r9,2) incq %r9 L__crypto_kem_enc_derand_jazz$114: L__crypto_kem_enc_derand_jazz$113: cmpq $255, %r9 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_enc_derand_jazz$111: jne L__crypto_kem_enc_derand_jazz$112 leaq 11936(%rsp), %rax leaq 896(%rsp), %rcx movq $0, %rdx cmpq $255, %rdi setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_enc_derand_jazz$106 L__crypto_kem_enc_derand_jazz$107: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_enc_derand_jazz$110 movw %si, (%rax,%rdi,2) incq %rdi L__crypto_kem_enc_derand_jazz$110: cmpq $256, %rdi jnb L__crypto_kem_enc_derand_jazz$108 cmpw $3329, %r11w jnb L__crypto_kem_enc_derand_jazz$108 movw %r11w, (%rax,%rdi,2) incq %rdi L__crypto_kem_enc_derand_jazz$109: L__crypto_kem_enc_derand_jazz$108: cmpq $255, %rdi setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_enc_derand_jazz$106: jne L__crypto_kem_enc_derand_jazz$107 leaq 12448(%rsp), %rax leaq 1408(%rsp), %rcx movq $0, %rdx cmpq $255, %r8 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_enc_derand_jazz$101 L__crypto_kem_enc_derand_jazz$102: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_enc_derand_jazz$105 movw %si, (%rax,%r8,2) incq %r8 L__crypto_kem_enc_derand_jazz$105: cmpq $256, %r8 jnb L__crypto_kem_enc_derand_jazz$103 cmpw $3329, %r11w jnb L__crypto_kem_enc_derand_jazz$103 movw %r11w, (%rax,%r8,2) incq %r8 L__crypto_kem_enc_derand_jazz$104: L__crypto_kem_enc_derand_jazz$103: cmpq $255, %r8 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_enc_derand_jazz$101: jne L__crypto_kem_enc_derand_jazz$102 leaq 12960(%rsp), %rax leaq 1920(%rsp), %rcx movq $0, %rdx cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_enc_derand_jazz$96 L__crypto_kem_enc_derand_jazz$97: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_enc_derand_jazz$100 movw %si, (%rax,%r13,2) incq %r13 L__crypto_kem_enc_derand_jazz$100: cmpq $256, %r13 jnb L__crypto_kem_enc_derand_jazz$98 cmpw $3329, %r11w jnb L__crypto_kem_enc_derand_jazz$98 movw %r11w, (%rax,%r13,2) incq %r13 L__crypto_kem_enc_derand_jazz$99: L__crypto_kem_enc_derand_jazz$98: cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_enc_derand_jazz$96: jne L__crypto_kem_enc_derand_jazz$97 cmpq $255, %r9 setbe %al cmpq $255, %rdi setbe %cl orb %cl, %al cmpq $255, %r8 setbe %cl cmpq $255, %r13 setbe %dl orb %dl, %cl orb %al, %cl L__crypto_kem_enc_derand_jazz$94: jne L__crypto_kem_enc_derand_jazz$95 vmovdqu (%rsp), %ymm0 vmovdqu %ymm0, 384(%rsp) vmovdqu %ymm0, 896(%rsp) vmovdqu %ymm0, 1408(%rsp) vmovdqu %ymm0, 1920(%rsp) vmovdqu %ymm0, (%rsp) movb $1, 416(%rsp) movb $1, 417(%rsp) movb $1, 928(%rsp) movb $2, 929(%rsp) movb $2, 1440(%rsp) movb $0, 1441(%rsp) movb $2, 1952(%rsp) movb $1, 1953(%rsp) leaq 4480(%rsp), %rax leaq 384(%rsp), %rcx leaq 896(%rsp), %rdx leaq 1408(%rsp), %rsi leaq 1920(%rsp), %rdi leaq -8(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$93(%rip), %r8 movq %r8, (%rsp) jmp L_shake128_absorb4x_34$1 L__crypto_kem_enc_derand_jazz$93: leaq 8(%rsp), %rsp leaq 4480(%rsp), %rax leaq 384(%rsp), %rdi leaq 896(%rsp), %r8 leaq 1408(%rsp), %r9 leaq 1920(%rsp), %r10 movq %rdi, %r11 movq %r8, %rbx movq %r9, %rbp movq %r10, %r12 leaq -832(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$92(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_enc_derand_jazz$92: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r11) vmovhpd %xmm1, (%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbp) vmovhpd %xmm0, (%r12) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r11) vmovhpd %xmm1, 8(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbp) vmovhpd %xmm0, 8(%r12) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r11) vmovhpd %xmm1, 16(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbp) vmovhpd %xmm0, 16(%r12) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r11) vmovhpd %xmm1, 24(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbp) vmovhpd %xmm0, 24(%r12) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r11) vmovhpd %xmm1, 32(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbp) vmovhpd %xmm0, 32(%r12) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r11) vmovhpd %xmm1, 40(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbp) vmovhpd %xmm0, 40(%r12) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r11) vmovhpd %xmm1, 48(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbp) vmovhpd %xmm0, 48(%r12) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r11) vmovhpd %xmm1, 56(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbp) vmovhpd %xmm0, 56(%r12) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r11) vmovhpd %xmm1, 64(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbp) vmovhpd %xmm0, 64(%r12) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r11) vmovhpd %xmm1, 72(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbp) vmovhpd %xmm0, 72(%r12) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r11) vmovhpd %xmm1, 80(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbp) vmovhpd %xmm0, 80(%r12) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r11) vmovhpd %xmm1, 88(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbp) vmovhpd %xmm0, 88(%r12) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r11) vmovhpd %xmm1, 96(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbp) vmovhpd %xmm0, 96(%r12) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r11) vmovhpd %xmm1, 104(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbp) vmovhpd %xmm0, 104(%r12) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r11) vmovhpd %xmm1, 112(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbp) vmovhpd %xmm0, 112(%r12) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r11) vmovhpd %xmm1, 120(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbp) vmovhpd %xmm0, 120(%r12) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r11) vmovhpd %xmm1, 128(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbp) vmovhpd %xmm0, 128(%r12) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r11) vmovhpd %xmm1, 136(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbp) vmovhpd %xmm0, 136(%r12) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r11) vmovhpd %xmm1, 144(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbp) vmovhpd %xmm0, 144(%r12) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r11) vmovhpd %xmm1, 152(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbp) vmovhpd %xmm0, 152(%r12) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r11) vmovhpd %xmm1, 160(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbp) vmovhpd %xmm0, 160(%r12) leaq 168(%rdi), %r11 leaq 168(%r8), %rbx leaq 168(%r9), %rbp leaq 168(%r10), %r12 leaq -832(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$91(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_enc_derand_jazz$91: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r11) vmovhpd %xmm1, (%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbp) vmovhpd %xmm0, (%r12) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r11) vmovhpd %xmm1, 8(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbp) vmovhpd %xmm0, 8(%r12) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r11) vmovhpd %xmm1, 16(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbp) vmovhpd %xmm0, 16(%r12) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r11) vmovhpd %xmm1, 24(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbp) vmovhpd %xmm0, 24(%r12) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r11) vmovhpd %xmm1, 32(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbp) vmovhpd %xmm0, 32(%r12) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r11) vmovhpd %xmm1, 40(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbp) vmovhpd %xmm0, 40(%r12) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r11) vmovhpd %xmm1, 48(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbp) vmovhpd %xmm0, 48(%r12) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r11) vmovhpd %xmm1, 56(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbp) vmovhpd %xmm0, 56(%r12) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r11) vmovhpd %xmm1, 64(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbp) vmovhpd %xmm0, 64(%r12) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r11) vmovhpd %xmm1, 72(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbp) vmovhpd %xmm0, 72(%r12) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r11) vmovhpd %xmm1, 80(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbp) vmovhpd %xmm0, 80(%r12) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r11) vmovhpd %xmm1, 88(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbp) vmovhpd %xmm0, 88(%r12) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r11) vmovhpd %xmm1, 96(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbp) vmovhpd %xmm0, 96(%r12) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r11) vmovhpd %xmm1, 104(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbp) vmovhpd %xmm0, 104(%r12) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r11) vmovhpd %xmm1, 112(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbp) vmovhpd %xmm0, 112(%r12) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r11) vmovhpd %xmm1, 120(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbp) vmovhpd %xmm0, 120(%r12) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r11) vmovhpd %xmm1, 128(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbp) vmovhpd %xmm0, 128(%r12) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r11) vmovhpd %xmm1, 136(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbp) vmovhpd %xmm0, 136(%r12) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r11) vmovhpd %xmm1, 144(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbp) vmovhpd %xmm0, 144(%r12) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r11) vmovhpd %xmm1, 152(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbp) vmovhpd %xmm0, 152(%r12) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r11) vmovhpd %xmm1, 160(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbp) vmovhpd %xmm0, 160(%r12) leaq 336(%rdi), %rdi leaq 336(%r8), %r8 leaq 336(%r9), %r9 leaq 336(%r10), %r10 leaq -832(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$90(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_enc_derand_jazz$90: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%rdi) vmovhpd %xmm1, (%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%r9) vmovhpd %xmm0, (%r10) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%rdi) vmovhpd %xmm1, 8(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%r9) vmovhpd %xmm0, 8(%r10) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%rdi) vmovhpd %xmm1, 16(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%r9) vmovhpd %xmm0, 16(%r10) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%rdi) vmovhpd %xmm1, 24(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%r9) vmovhpd %xmm0, 24(%r10) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%rdi) vmovhpd %xmm1, 32(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%r9) vmovhpd %xmm0, 32(%r10) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%rdi) vmovhpd %xmm1, 40(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%r9) vmovhpd %xmm0, 40(%r10) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%rdi) vmovhpd %xmm1, 48(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%r9) vmovhpd %xmm0, 48(%r10) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%rdi) vmovhpd %xmm1, 56(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%r9) vmovhpd %xmm0, 56(%r10) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%rdi) vmovhpd %xmm1, 64(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%r9) vmovhpd %xmm0, 64(%r10) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%rdi) vmovhpd %xmm1, 72(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%r9) vmovhpd %xmm0, 72(%r10) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%rdi) vmovhpd %xmm1, 80(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%r9) vmovhpd %xmm0, 80(%r10) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%rdi) vmovhpd %xmm1, 88(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%r9) vmovhpd %xmm0, 88(%r10) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%rdi) vmovhpd %xmm1, 96(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%r9) vmovhpd %xmm0, 96(%r10) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%rdi) vmovhpd %xmm1, 104(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%r9) vmovhpd %xmm0, 104(%r10) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%rdi) vmovhpd %xmm1, 112(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%r9) vmovhpd %xmm0, 112(%r10) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%rdi) vmovhpd %xmm1, 120(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%r9) vmovhpd %xmm0, 120(%r10) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%rdi) vmovhpd %xmm1, 128(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%r9) vmovhpd %xmm0, 128(%r10) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%rdi) vmovhpd %xmm1, 136(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%r9) vmovhpd %xmm0, 136(%r10) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%rdi) vmovhpd %xmm1, 144(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%r9) vmovhpd %xmm0, 144(%r10) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%rdi) vmovhpd %xmm1, 152(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%r9) vmovhpd %xmm0, 152(%r10) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%rdi) vmovhpd %xmm1, 160(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%r9) vmovhpd %xmm0, 160(%r10) leaq 13472(%rsp), %rbx leaq 384(%rsp), %rbp leaq L__crypto_kem_enc_derand_jazz$89(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_enc_derand_jazz$89: movq %r13, %rdi leaq 13984(%rsp), %rbx leaq 896(%rsp), %rbp leaq L__crypto_kem_enc_derand_jazz$88(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_enc_derand_jazz$88: movq %r13, %r8 leaq 14496(%rsp), %rbx leaq 1408(%rsp), %rbp leaq L__crypto_kem_enc_derand_jazz$87(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_enc_derand_jazz$87: movq %r13, %r9 leaq 15008(%rsp), %rbx leaq 1920(%rsp), %rbp leaq L__crypto_kem_enc_derand_jazz$86(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_enc_derand_jazz$86: cmpq $255, %rdi setbe %al cmpq $255, %r8 setbe %cl orb %cl, %al cmpq $255, %r9 setbe %cl cmpq $255, %r13 setbe %dl orb %dl, %cl orb %al, %cl jmp L__crypto_kem_enc_derand_jazz$63 L__crypto_kem_enc_derand_jazz$64: leaq 4480(%rsp), %rax leaq 384(%rsp), %r10 leaq 896(%rsp), %r11 leaq 1408(%rsp), %rbx leaq 1920(%rsp), %rbp leaq -832(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$85(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_enc_derand_jazz$85: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r10) vmovhpd %xmm1, (%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbx) vmovhpd %xmm0, (%rbp) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r10) vmovhpd %xmm1, 8(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbx) vmovhpd %xmm0, 8(%rbp) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r10) vmovhpd %xmm1, 16(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbx) vmovhpd %xmm0, 16(%rbp) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r10) vmovhpd %xmm1, 24(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbx) vmovhpd %xmm0, 24(%rbp) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r10) vmovhpd %xmm1, 32(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbx) vmovhpd %xmm0, 32(%rbp) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r10) vmovhpd %xmm1, 40(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbx) vmovhpd %xmm0, 40(%rbp) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r10) vmovhpd %xmm1, 48(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbx) vmovhpd %xmm0, 48(%rbp) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r10) vmovhpd %xmm1, 56(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbx) vmovhpd %xmm0, 56(%rbp) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r10) vmovhpd %xmm1, 64(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbx) vmovhpd %xmm0, 64(%rbp) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r10) vmovhpd %xmm1, 72(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbx) vmovhpd %xmm0, 72(%rbp) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r10) vmovhpd %xmm1, 80(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbx) vmovhpd %xmm0, 80(%rbp) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r10) vmovhpd %xmm1, 88(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbx) vmovhpd %xmm0, 88(%rbp) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r10) vmovhpd %xmm1, 96(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbx) vmovhpd %xmm0, 96(%rbp) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r10) vmovhpd %xmm1, 104(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbx) vmovhpd %xmm0, 104(%rbp) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r10) vmovhpd %xmm1, 112(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbx) vmovhpd %xmm0, 112(%rbp) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r10) vmovhpd %xmm1, 120(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbx) vmovhpd %xmm0, 120(%rbp) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r10) vmovhpd %xmm1, 128(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbx) vmovhpd %xmm0, 128(%rbp) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r10) vmovhpd %xmm1, 136(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbx) vmovhpd %xmm0, 136(%rbp) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r10) vmovhpd %xmm1, 144(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbx) vmovhpd %xmm0, 144(%rbp) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r10) vmovhpd %xmm1, 152(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbx) vmovhpd %xmm0, 152(%rbp) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r10) vmovhpd %xmm1, 160(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbx) vmovhpd %xmm0, 160(%rbp) leaq 13472(%rsp), %rax leaq 384(%rsp), %rcx movq $0, %rdx cmpq $255, %rdi setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_enc_derand_jazz$80 L__crypto_kem_enc_derand_jazz$81: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_enc_derand_jazz$84 movw %si, (%rax,%rdi,2) incq %rdi L__crypto_kem_enc_derand_jazz$84: cmpq $256, %rdi jnb L__crypto_kem_enc_derand_jazz$82 cmpw $3329, %r11w jnb L__crypto_kem_enc_derand_jazz$82 movw %r11w, (%rax,%rdi,2) incq %rdi L__crypto_kem_enc_derand_jazz$83: L__crypto_kem_enc_derand_jazz$82: cmpq $255, %rdi setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_enc_derand_jazz$80: jne L__crypto_kem_enc_derand_jazz$81 leaq 13984(%rsp), %rax leaq 896(%rsp), %rcx movq $0, %rdx cmpq $255, %r8 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_enc_derand_jazz$75 L__crypto_kem_enc_derand_jazz$76: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_enc_derand_jazz$79 movw %si, (%rax,%r8,2) incq %r8 L__crypto_kem_enc_derand_jazz$79: cmpq $256, %r8 jnb L__crypto_kem_enc_derand_jazz$77 cmpw $3329, %r11w jnb L__crypto_kem_enc_derand_jazz$77 movw %r11w, (%rax,%r8,2) incq %r8 L__crypto_kem_enc_derand_jazz$78: L__crypto_kem_enc_derand_jazz$77: cmpq $255, %r8 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_enc_derand_jazz$75: jne L__crypto_kem_enc_derand_jazz$76 leaq 14496(%rsp), %rax leaq 1408(%rsp), %rcx movq $0, %rdx cmpq $255, %r9 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_enc_derand_jazz$70 L__crypto_kem_enc_derand_jazz$71: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_enc_derand_jazz$74 movw %si, (%rax,%r9,2) incq %r9 L__crypto_kem_enc_derand_jazz$74: cmpq $256, %r9 jnb L__crypto_kem_enc_derand_jazz$72 cmpw $3329, %r11w jnb L__crypto_kem_enc_derand_jazz$72 movw %r11w, (%rax,%r9,2) incq %r9 L__crypto_kem_enc_derand_jazz$73: L__crypto_kem_enc_derand_jazz$72: cmpq $255, %r9 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_enc_derand_jazz$70: jne L__crypto_kem_enc_derand_jazz$71 leaq 15008(%rsp), %rax leaq 1920(%rsp), %rcx movq $0, %rdx cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_enc_derand_jazz$65 L__crypto_kem_enc_derand_jazz$66: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_enc_derand_jazz$69 movw %si, (%rax,%r13,2) incq %r13 L__crypto_kem_enc_derand_jazz$69: cmpq $256, %r13 jnb L__crypto_kem_enc_derand_jazz$67 cmpw $3329, %r11w jnb L__crypto_kem_enc_derand_jazz$67 movw %r11w, (%rax,%r13,2) incq %r13 L__crypto_kem_enc_derand_jazz$68: L__crypto_kem_enc_derand_jazz$67: cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_enc_derand_jazz$65: jne L__crypto_kem_enc_derand_jazz$66 cmpq $255, %rdi setbe %al cmpq $255, %r8 setbe %cl orb %cl, %al cmpq $255, %r9 setbe %cl cmpq $255, %r13 setbe %dl orb %dl, %cl orb %al, %cl L__crypto_kem_enc_derand_jazz$63: jne L__crypto_kem_enc_derand_jazz$64 vmovdqu (%rsp), %ymm0 vmovdqu %ymm0, 384(%rsp) movb $2, 416(%rsp) movb $2, 417(%rsp) leaq 384(%rsp), %rax vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vmovdqu %ymm0, 224(%rsp) vmovdqu %ymm0, 256(%rsp) vmovdqu %ymm0, 288(%rsp) vmovdqu %ymm0, 320(%rsp) vmovdqu %ymm0, 352(%rsp) vpbroadcastq (%rax), %ymm5 movq 8(%rax), %rcx movq glob_data + 6208(%rip), %rdx movq %rcx, 160(%rsp,%rdx,8) movq 16(%rax), %rcx movq glob_data + 6216(%rip), %rdx movq %rcx, 160(%rsp,%rdx,8) movq 24(%rax), %rcx movq glob_data + 6224(%rip), %rdx movq %rcx, 160(%rsp,%rdx,8) movb 32(%rax), %cl movq glob_data + 6232(%rip), %rdx shlq $3, %rdx movb %cl, 160(%rsp,%rdx) movb 33(%rax), %al incq %rdx movb %al, 160(%rsp,%rdx) incq %rdx movb $31, 160(%rsp,%rdx) movq glob_data + 6360(%rip), %rax shlq $3, %rax movq $167, %rcx andq $7, %rcx addq %rcx, %rax movb $-128, 160(%rsp,%rax) vmovdqu 192(%rsp), %ymm0 vmovdqu 224(%rsp), %ymm1 vmovdqu 256(%rsp), %ymm2 vmovdqu 288(%rsp), %ymm6 vmovdqu 320(%rsp), %ymm3 vmovdqu 352(%rsp), %ymm4 leaq 384(%rsp), %rax leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 L__crypto_kem_enc_derand_jazz$62: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm3, %ymm7 vpxor %ymm4, %ymm6, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm5, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm5, %ymm5 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm6, %ymm6 vpsllvq 96(%rsi), %ymm6, %ymm7 vpsrlvq 96(%rdi), %ymm6, %ymm6 vpor %ymm7, %ymm6, %ymm10 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm6 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm6, %ymm3, %ymm3 vpxor %ymm9, %ymm4, %ymm4 vpermq $-115, %ymm1, %ymm6 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm4, %ymm1 vpsrlvq 160(%rdi), %ymm4, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm3, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm3 vpblendd $12, %ymm7, %ymm6, %ymm4 vpblendd $12, %ymm6, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm3, %ymm3 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm3, %ymm3 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm3, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm4 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm6, %ymm12 vpxor %ymm6, %ymm1, %ymm3 vpblendd $48, %ymm6, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm5, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm5, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm6, %ymm13, %ymm13 vpblendd $-64, %ymm6, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm3, %ymm2 vpermq $-115, %ymm4, %ymm3 vpermq $114, %ymm12, %ymm4 vpblendd $12, %ymm6, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm6, %ymm9, %ymm6 vpandn %ymm6, %ymm0, %ymm6 vpxor %ymm13, %ymm5, %ymm5 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm6, %ymm6 vpxor (%rcx,%rdx), %ymm5, %ymm5 addq $32, %rdx decq %r8 jne L__crypto_kem_enc_derand_jazz$62 vmovdqu %ymm5, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vmovdqu %ymm1, 224(%rsp) vmovdqu %ymm2, 256(%rsp) vmovdqu %ymm6, 288(%rsp) vmovdqu %ymm3, 320(%rsp) vmovdqu %ymm4, 352(%rsp) movq glob_data + 6200(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) movq glob_data + 6264(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 64(%rax) movq glob_data + 6272(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 72(%rax) movq glob_data + 6280(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 80(%rax) movq glob_data + 6288(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 88(%rax) movq glob_data + 6296(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 96(%rax) movq glob_data + 6304(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 104(%rax) movq glob_data + 6312(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 112(%rax) movq glob_data + 6320(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 120(%rax) movq glob_data + 6328(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 128(%rax) movq glob_data + 6336(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 136(%rax) movq glob_data + 6344(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 144(%rax) movq glob_data + 6352(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 152(%rax) movq glob_data + 6360(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 160(%rax) leaq 552(%rsp), %rax leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 L__crypto_kem_enc_derand_jazz$61: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm3, %ymm7 vpxor %ymm4, %ymm6, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm5, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm5, %ymm5 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm6, %ymm6 vpsllvq 96(%rsi), %ymm6, %ymm7 vpsrlvq 96(%rdi), %ymm6, %ymm6 vpor %ymm7, %ymm6, %ymm10 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm6 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm6, %ymm3, %ymm3 vpxor %ymm9, %ymm4, %ymm4 vpermq $-115, %ymm1, %ymm6 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm4, %ymm1 vpsrlvq 160(%rdi), %ymm4, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm3, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm3 vpblendd $12, %ymm7, %ymm6, %ymm4 vpblendd $12, %ymm6, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm3, %ymm3 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm3, %ymm3 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm3, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm4 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm6, %ymm12 vpxor %ymm6, %ymm1, %ymm3 vpblendd $48, %ymm6, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm5, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm5, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm6, %ymm13, %ymm13 vpblendd $-64, %ymm6, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm3, %ymm2 vpermq $-115, %ymm4, %ymm3 vpermq $114, %ymm12, %ymm4 vpblendd $12, %ymm6, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm6, %ymm9, %ymm6 vpandn %ymm6, %ymm0, %ymm6 vpxor %ymm13, %ymm5, %ymm5 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm6, %ymm6 vpxor (%rcx,%rdx), %ymm5, %ymm5 addq $32, %rdx decq %r8 jne L__crypto_kem_enc_derand_jazz$61 vmovdqu %ymm5, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vmovdqu %ymm1, 224(%rsp) vmovdqu %ymm2, 256(%rsp) vmovdqu %ymm6, 288(%rsp) vmovdqu %ymm3, 320(%rsp) vmovdqu %ymm4, 352(%rsp) movq glob_data + 6200(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) movq glob_data + 6264(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 64(%rax) movq glob_data + 6272(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 72(%rax) movq glob_data + 6280(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 80(%rax) movq glob_data + 6288(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 88(%rax) movq glob_data + 6296(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 96(%rax) movq glob_data + 6304(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 104(%rax) movq glob_data + 6312(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 112(%rax) movq glob_data + 6320(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 120(%rax) movq glob_data + 6328(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 128(%rax) movq glob_data + 6336(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 136(%rax) movq glob_data + 6344(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 144(%rax) movq glob_data + 6352(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 152(%rax) movq glob_data + 6360(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 160(%rax) leaq 720(%rsp), %rax leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 L__crypto_kem_enc_derand_jazz$60: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm3, %ymm7 vpxor %ymm4, %ymm6, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm5, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm5, %ymm5 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm6, %ymm6 vpsllvq 96(%rsi), %ymm6, %ymm7 vpsrlvq 96(%rdi), %ymm6, %ymm6 vpor %ymm7, %ymm6, %ymm10 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm6 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm6, %ymm3, %ymm3 vpxor %ymm9, %ymm4, %ymm4 vpermq $-115, %ymm1, %ymm6 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm4, %ymm1 vpsrlvq 160(%rdi), %ymm4, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm3, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm3 vpblendd $12, %ymm7, %ymm6, %ymm4 vpblendd $12, %ymm6, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm3, %ymm3 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm3, %ymm3 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm3, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm4 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm6, %ymm12 vpxor %ymm6, %ymm1, %ymm3 vpblendd $48, %ymm6, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm5, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm5, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm6, %ymm13, %ymm13 vpblendd $-64, %ymm6, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm3, %ymm2 vpermq $-115, %ymm4, %ymm3 vpermq $114, %ymm12, %ymm4 vpblendd $12, %ymm6, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm6, %ymm9, %ymm6 vpandn %ymm6, %ymm0, %ymm6 vpxor %ymm13, %ymm5, %ymm5 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm6, %ymm6 vpxor (%rcx,%rdx), %ymm5, %ymm5 addq $32, %rdx decq %r8 jne L__crypto_kem_enc_derand_jazz$60 vmovdqu %ymm5, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vmovdqu %ymm1, 224(%rsp) vmovdqu %ymm2, 256(%rsp) vmovdqu %ymm6, 288(%rsp) vmovdqu %ymm3, 320(%rsp) vmovdqu %ymm4, 352(%rsp) movq glob_data + 6200(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) movq glob_data + 6264(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 64(%rax) movq glob_data + 6272(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 72(%rax) movq glob_data + 6280(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 80(%rax) movq glob_data + 6288(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 88(%rax) movq glob_data + 6296(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 96(%rax) movq glob_data + 6304(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 104(%rax) movq glob_data + 6312(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 112(%rax) movq glob_data + 6320(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 120(%rax) movq glob_data + 6328(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 128(%rax) movq glob_data + 6336(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 136(%rax) movq glob_data + 6344(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 144(%rax) movq glob_data + 6352(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 152(%rax) movq glob_data + 6360(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 160(%rax) vmovdqu %ymm5, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vmovdqu %ymm1, 224(%rsp) vmovdqu %ymm2, 256(%rsp) vmovdqu %ymm6, 288(%rsp) vmovdqu %ymm3, 320(%rsp) vmovdqu %ymm4, 352(%rsp) leaq 15520(%rsp), %rbx leaq 384(%rsp), %rbp leaq L__crypto_kem_enc_derand_jazz$59(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_enc_derand_jazz$59: cmpq $255, %r13 setbe %al vmovdqu 160(%rsp), %ymm6 vmovdqu 192(%rsp), %ymm0 vmovdqu 224(%rsp), %ymm1 vmovdqu 256(%rsp), %ymm2 vmovdqu 288(%rsp), %ymm3 vmovdqu 320(%rsp), %ymm4 vmovdqu 352(%rsp), %ymm5 jmp L__crypto_kem_enc_derand_jazz$51 L__crypto_kem_enc_derand_jazz$52: leaq 384(%rsp), %rax leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 L__crypto_kem_enc_derand_jazz$58: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm4, %ymm7 vpxor %ymm5, %ymm3, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 96(%rsi), %ymm3, %ymm7 vpsrlvq 96(%rdi), %ymm3, %ymm3 vpor %ymm7, %ymm3, %ymm10 vpxor %ymm9, %ymm4, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm4 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm4, %ymm3, %ymm4 vpxor %ymm9, %ymm5, %ymm5 vpermq $-115, %ymm1, %ymm3 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm5, %ymm1 vpsrlvq 160(%rdi), %ymm5, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm4, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm3, %ymm5 vpblendd $12, %ymm3, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm4, %ymm4 vpblendd $48, %ymm10, %ymm5, %ymm5 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm9, %ymm5, %ymm5 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm4, %ymm1, %ymm1 vpandn %ymm11, %ymm5, %ymm5 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm3, %ymm12 vpxor %ymm3, %ymm1, %ymm4 vpblendd $48, %ymm3, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm5, %ymm5 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm6, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm13, %ymm13 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm4, %ymm2 vpermq $-115, %ymm5, %ymm4 vpermq $114, %ymm12, %ymm5 vpblendd $12, %ymm3, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm3, %ymm9, %ymm3 vpandn %ymm3, %ymm0, %ymm3 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm3, %ymm3 vpxor (%rcx,%rdx), %ymm6, %ymm6 addq $32, %rdx decq %r8 jne L__crypto_kem_enc_derand_jazz$58 vmovdqu %ymm6, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vmovdqu %ymm1, 224(%rsp) vmovdqu %ymm2, 256(%rsp) vmovdqu %ymm3, 288(%rsp) vmovdqu %ymm4, 320(%rsp) vmovdqu %ymm5, 352(%rsp) movq glob_data + 6200(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) movq glob_data + 6264(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 64(%rax) movq glob_data + 6272(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 72(%rax) movq glob_data + 6280(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 80(%rax) movq glob_data + 6288(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 88(%rax) movq glob_data + 6296(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 96(%rax) movq glob_data + 6304(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 104(%rax) movq glob_data + 6312(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 112(%rax) movq glob_data + 6320(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 120(%rax) movq glob_data + 6328(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 128(%rax) movq glob_data + 6336(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 136(%rax) movq glob_data + 6344(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 144(%rax) movq glob_data + 6352(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 152(%rax) movq glob_data + 6360(%rip), %rcx movq 160(%rsp,%rcx,8), %rcx movq %rcx, 160(%rax) leaq 15520(%rsp), %rax leaq 384(%rsp), %rcx movq $0, %rdx cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %dil testb %dil, %sil jmp L__crypto_kem_enc_derand_jazz$53 L__crypto_kem_enc_derand_jazz$54: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw (%rcx,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb L__crypto_kem_enc_derand_jazz$57 movw %si, (%rax,%r13,2) incq %r13 L__crypto_kem_enc_derand_jazz$57: cmpq $256, %r13 jnb L__crypto_kem_enc_derand_jazz$55 cmpw $3329, %r8w jnb L__crypto_kem_enc_derand_jazz$55 movw %r8w, (%rax,%r13,2) incq %r13 L__crypto_kem_enc_derand_jazz$56: L__crypto_kem_enc_derand_jazz$55: cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %dil testb %dil, %sil L__crypto_kem_enc_derand_jazz$53: jne L__crypto_kem_enc_derand_jazz$54 cmpq $255, %r13 setbe %al L__crypto_kem_enc_derand_jazz$51: cmpb $0, %al jne L__crypto_kem_enc_derand_jazz$52 leaq 11424(%rsp), %rax leaq L__crypto_kem_enc_derand_jazz$50(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_enc_derand_jazz$50: leaq 11936(%rsp), %rax leaq L__crypto_kem_enc_derand_jazz$49(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_enc_derand_jazz$49: leaq 12448(%rsp), %rax leaq L__crypto_kem_enc_derand_jazz$48(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_enc_derand_jazz$48: leaq 12960(%rsp), %rax leaq L__crypto_kem_enc_derand_jazz$47(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_enc_derand_jazz$47: leaq 13472(%rsp), %rax leaq L__crypto_kem_enc_derand_jazz$46(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_enc_derand_jazz$46: leaq 13984(%rsp), %rax leaq L__crypto_kem_enc_derand_jazz$45(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_enc_derand_jazz$45: leaq 14496(%rsp), %rax leaq L__crypto_kem_enc_derand_jazz$44(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_enc_derand_jazz$44: leaq 15008(%rsp), %rax leaq L__crypto_kem_enc_derand_jazz$43(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_enc_derand_jazz$43: leaq 15520(%rsp), %rax leaq L__crypto_kem_enc_derand_jazz$42(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_enc_derand_jazz$42: movq 16032(%rsp), %r10 movb $0, %cl leaq 6816(%rsp), %rax leaq 7328(%rsp), %rdi leaq 7840(%rsp), %r8 leaq 8352(%rsp), %r9 leaq -1472(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$41(%rip), %rdx movq %rdx, 1464(%rsp) jmp L_poly_getnoise_eta1_4x$1 L__crypto_kem_enc_derand_jazz$41: leaq 1472(%rsp), %rsp movb $4, %cl leaq 8864(%rsp), %rax leaq 9376(%rsp), %rdi leaq 2944(%rsp), %r8 leaq 9888(%rsp), %r9 leaq -1472(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$40(%rip), %rdx movq %rdx, 1464(%rsp) jmp L_poly_getnoise_eta1_4x$1 L__crypto_kem_enc_derand_jazz$40: leaq 1472(%rsp), %rsp leaq 6816(%rsp), %rcx leaq L__crypto_kem_enc_derand_jazz$39(%rip), %rdi jmp L_poly_ntt$1 L__crypto_kem_enc_derand_jazz$39: leaq 7328(%rsp), %rcx leaq L__crypto_kem_enc_derand_jazz$38(%rip), %rdi jmp L_poly_ntt$1 L__crypto_kem_enc_derand_jazz$38: leaq 7840(%rsp), %rcx leaq L__crypto_kem_enc_derand_jazz$37(%rip), %rdi jmp L_poly_ntt$1 L__crypto_kem_enc_derand_jazz$37: leaq 9888(%rsp), %rcx leaq 11424(%rsp), %rsi leaq 6816(%rsp), %rdi leaq L__crypto_kem_enc_derand_jazz$36(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_enc_derand_jazz$36: leaq 3456(%rsp), %rcx leaq 11936(%rsp), %rsi leaq 7328(%rsp), %rdi leaq L__crypto_kem_enc_derand_jazz$35(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_enc_derand_jazz$35: leaq 9888(%rsp), %rcx leaq 3456(%rsp), %rsi leaq L__crypto_kem_enc_derand_jazz$34(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_enc_derand_jazz$34: leaq 3456(%rsp), %rcx leaq 12448(%rsp), %rsi leaq 7840(%rsp), %rdi leaq L__crypto_kem_enc_derand_jazz$33(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_enc_derand_jazz$33: leaq 9888(%rsp), %rcx leaq 3456(%rsp), %rsi leaq L__crypto_kem_enc_derand_jazz$32(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_enc_derand_jazz$32: leaq 10400(%rsp), %rcx leaq 12960(%rsp), %rsi leaq 6816(%rsp), %rdi leaq L__crypto_kem_enc_derand_jazz$31(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_enc_derand_jazz$31: leaq 3456(%rsp), %rcx leaq 13472(%rsp), %rsi leaq 7328(%rsp), %rdi leaq L__crypto_kem_enc_derand_jazz$30(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_enc_derand_jazz$30: leaq 10400(%rsp), %rcx leaq 3456(%rsp), %rsi leaq L__crypto_kem_enc_derand_jazz$29(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_enc_derand_jazz$29: leaq 3456(%rsp), %rcx leaq 13984(%rsp), %rsi leaq 7840(%rsp), %rdi leaq L__crypto_kem_enc_derand_jazz$28(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_enc_derand_jazz$28: leaq 10400(%rsp), %rcx leaq 3456(%rsp), %rsi leaq L__crypto_kem_enc_derand_jazz$27(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_enc_derand_jazz$27: leaq 10912(%rsp), %rcx leaq 14496(%rsp), %rsi leaq 6816(%rsp), %rdi leaq L__crypto_kem_enc_derand_jazz$26(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_enc_derand_jazz$26: leaq 3456(%rsp), %rcx leaq 15008(%rsp), %rsi leaq 7328(%rsp), %rdi leaq L__crypto_kem_enc_derand_jazz$25(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_enc_derand_jazz$25: leaq 10912(%rsp), %rcx leaq 3456(%rsp), %rsi leaq L__crypto_kem_enc_derand_jazz$24(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_enc_derand_jazz$24: leaq 3456(%rsp), %rcx leaq 15520(%rsp), %rsi leaq 7840(%rsp), %rdi leaq L__crypto_kem_enc_derand_jazz$23(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_enc_derand_jazz$23: leaq 10912(%rsp), %rcx leaq 3456(%rsp), %rsi leaq L__crypto_kem_enc_derand_jazz$22(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_enc_derand_jazz$22: leaq 3456(%rsp), %rcx leaq 5280(%rsp), %rsi leaq 6816(%rsp), %rdi leaq L__crypto_kem_enc_derand_jazz$21(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_enc_derand_jazz$21: leaq 3968(%rsp), %rcx leaq 5792(%rsp), %rsi leaq 7328(%rsp), %rdi leaq L__crypto_kem_enc_derand_jazz$20(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_enc_derand_jazz$20: leaq 3456(%rsp), %rcx leaq 3968(%rsp), %rsi leaq L__crypto_kem_enc_derand_jazz$19(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_enc_derand_jazz$19: leaq 3968(%rsp), %rcx leaq 6304(%rsp), %rsi leaq 7840(%rsp), %rdi leaq L__crypto_kem_enc_derand_jazz$18(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_enc_derand_jazz$18: leaq 3456(%rsp), %rcx leaq 3968(%rsp), %rsi leaq L__crypto_kem_enc_derand_jazz$17(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_enc_derand_jazz$17: leaq 9888(%rsp), %rcx leaq L__crypto_kem_enc_derand_jazz$16(%rip), %rdi jmp L_poly_invntt$1 L__crypto_kem_enc_derand_jazz$16: leaq 10400(%rsp), %rcx leaq L__crypto_kem_enc_derand_jazz$15(%rip), %rdi jmp L_poly_invntt$1 L__crypto_kem_enc_derand_jazz$15: leaq 10912(%rsp), %rcx leaq L__crypto_kem_enc_derand_jazz$14(%rip), %rdi jmp L_poly_invntt$1 L__crypto_kem_enc_derand_jazz$14: leaq 3456(%rsp), %rcx leaq L__crypto_kem_enc_derand_jazz$13(%rip), %rdi jmp L_poly_invntt$1 L__crypto_kem_enc_derand_jazz$13: leaq 9888(%rsp), %rcx leaq 8352(%rsp), %rsi leaq L__crypto_kem_enc_derand_jazz$12(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_enc_derand_jazz$12: leaq 10400(%rsp), %rcx leaq 8864(%rsp), %rsi leaq L__crypto_kem_enc_derand_jazz$11(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_enc_derand_jazz$11: leaq 10912(%rsp), %rcx leaq 9376(%rsp), %rsi leaq L__crypto_kem_enc_derand_jazz$10(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_enc_derand_jazz$10: leaq 3456(%rsp), %rcx leaq 2944(%rsp), %rsi leaq L__crypto_kem_enc_derand_jazz$9(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_enc_derand_jazz$9: leaq 3456(%rsp), %rcx leaq 2432(%rsp), %rsi leaq L__crypto_kem_enc_derand_jazz$8(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_enc_derand_jazz$8: leaq 9888(%rsp), %rax vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu glob_data + 384(%rip), %ymm1 vmovdqu (%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, (%rax) vmovdqu 32(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 32(%rax) vmovdqu 64(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 64(%rax) vmovdqu 96(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 96(%rax) vmovdqu 128(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 128(%rax) vmovdqu 160(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 160(%rax) vmovdqu 192(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 192(%rax) vmovdqu 224(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 224(%rax) vmovdqu 256(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 256(%rax) vmovdqu 288(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 288(%rax) vmovdqu 320(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 320(%rax) vmovdqu 352(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 352(%rax) vmovdqu 384(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 384(%rax) vmovdqu 416(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 416(%rax) vmovdqu 448(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 448(%rax) vmovdqu 480(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm1 vpsraw $10, %ymm1, %ymm1 vpmullw %ymm0, %ymm1, %ymm0 vpsubw %ymm0, %ymm2, %ymm0 vmovdqu %ymm0, 480(%rax) leaq 10400(%rsp), %rax vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu glob_data + 384(%rip), %ymm1 vmovdqu (%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, (%rax) vmovdqu 32(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 32(%rax) vmovdqu 64(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 64(%rax) vmovdqu 96(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 96(%rax) vmovdqu 128(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 128(%rax) vmovdqu 160(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 160(%rax) vmovdqu 192(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 192(%rax) vmovdqu 224(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 224(%rax) vmovdqu 256(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 256(%rax) vmovdqu 288(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 288(%rax) vmovdqu 320(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 320(%rax) vmovdqu 352(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 352(%rax) vmovdqu 384(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 384(%rax) vmovdqu 416(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 416(%rax) vmovdqu 448(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 448(%rax) vmovdqu 480(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm1 vpsraw $10, %ymm1, %ymm1 vpmullw %ymm0, %ymm1, %ymm0 vpsubw %ymm0, %ymm2, %ymm0 vmovdqu %ymm0, 480(%rax) leaq 10912(%rsp), %rax vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu glob_data + 384(%rip), %ymm1 vmovdqu (%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, (%rax) vmovdqu 32(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 32(%rax) vmovdqu 64(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 64(%rax) vmovdqu 96(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 96(%rax) vmovdqu 128(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 128(%rax) vmovdqu 160(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 160(%rax) vmovdqu 192(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 192(%rax) vmovdqu 224(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 224(%rax) vmovdqu 256(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 256(%rax) vmovdqu 288(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 288(%rax) vmovdqu 320(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 320(%rax) vmovdqu 352(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 352(%rax) vmovdqu 384(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 384(%rax) vmovdqu 416(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 416(%rax) vmovdqu 448(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 448(%rax) vmovdqu 480(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm1 vpsraw $10, %ymm1, %ymm1 vpmullw %ymm0, %ymm1, %ymm0 vpsubw %ymm0, %ymm2, %ymm0 vmovdqu %ymm0, 480(%rax) leaq 3456(%rsp), %rax vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu glob_data + 384(%rip), %ymm1 vmovdqu (%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, (%rax) vmovdqu 32(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 32(%rax) vmovdqu 64(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 64(%rax) vmovdqu 96(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 96(%rax) vmovdqu 128(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 128(%rax) vmovdqu 160(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 160(%rax) vmovdqu 192(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 192(%rax) vmovdqu 224(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 224(%rax) vmovdqu 256(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 256(%rax) vmovdqu 288(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 288(%rax) vmovdqu 320(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 320(%rax) vmovdqu 352(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 352(%rax) vmovdqu 384(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 384(%rax) vmovdqu 416(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 416(%rax) vmovdqu 448(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 448(%rax) vmovdqu 480(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm1 vpsraw $10, %ymm1, %ymm1 vpmullw %ymm0, %ymm1, %ymm0 vpsubw %ymm0, %ymm2, %ymm0 vmovdqu %ymm0, 480(%rax) movq 16040(%rsp), %rax leaq 9888(%rsp), %rcx leaq L__crypto_kem_enc_derand_jazz$7(%rip), %r8 jmp L_poly_csubq$1 L__crypto_kem_enc_derand_jazz$7: leaq 10400(%rsp), %rcx leaq L__crypto_kem_enc_derand_jazz$6(%rip), %r8 jmp L_poly_csubq$1 L__crypto_kem_enc_derand_jazz$6: leaq 10912(%rsp), %rcx leaq L__crypto_kem_enc_derand_jazz$5(%rip), %r8 jmp L_poly_csubq$1 L__crypto_kem_enc_derand_jazz$5: leaq glob_data + 384(%rip), %rcx vmovdqu (%rcx), %ymm0 vpsllw $3, %ymm0, %ymm1 vpbroadcastw glob_data + 6422(%rip), %ymm2 vpbroadcastw glob_data + 6420(%rip), %ymm3 vpbroadcastw glob_data + 6418(%rip), %ymm4 vpbroadcastq glob_data + 6184(%rip), %ymm5 vpbroadcastq glob_data + 6176(%rip), %ymm6 vmovdqu glob_data + 32(%rip), %ymm7 vmovdqu 9888(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, (%rax) vpextrd $0, %xmm8, 16(%rax) vmovdqu 9920(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 20(%rax) vpextrd $0, %xmm8, 36(%rax) vmovdqu 9952(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 40(%rax) vpextrd $0, %xmm8, 56(%rax) vmovdqu 9984(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 60(%rax) vpextrd $0, %xmm8, 76(%rax) vmovdqu 10016(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 80(%rax) vpextrd $0, %xmm8, 96(%rax) vmovdqu 10048(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 100(%rax) vpextrd $0, %xmm8, 116(%rax) vmovdqu 10080(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 120(%rax) vpextrd $0, %xmm8, 136(%rax) vmovdqu 10112(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 140(%rax) vpextrd $0, %xmm8, 156(%rax) vmovdqu 10144(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 160(%rax) vpextrd $0, %xmm8, 176(%rax) vmovdqu 10176(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 180(%rax) vpextrd $0, %xmm8, 196(%rax) vmovdqu 10208(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 200(%rax) vpextrd $0, %xmm8, 216(%rax) vmovdqu 10240(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 220(%rax) vpextrd $0, %xmm8, 236(%rax) vmovdqu 10272(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 240(%rax) vpextrd $0, %xmm8, 256(%rax) vmovdqu 10304(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 260(%rax) vpextrd $0, %xmm8, 276(%rax) vmovdqu 10336(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 280(%rax) vpextrd $0, %xmm8, 296(%rax) vmovdqu 10368(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 300(%rax) vpextrd $0, %xmm8, 316(%rax) vmovdqu 10400(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 320(%rax) vpextrd $0, %xmm8, 336(%rax) vmovdqu 10432(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 340(%rax) vpextrd $0, %xmm8, 356(%rax) vmovdqu 10464(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 360(%rax) vpextrd $0, %xmm8, 376(%rax) vmovdqu 10496(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 380(%rax) vpextrd $0, %xmm8, 396(%rax) vmovdqu 10528(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 400(%rax) vpextrd $0, %xmm8, 416(%rax) vmovdqu 10560(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 420(%rax) vpextrd $0, %xmm8, 436(%rax) vmovdqu 10592(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 440(%rax) vpextrd $0, %xmm8, 456(%rax) vmovdqu 10624(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 460(%rax) vpextrd $0, %xmm8, 476(%rax) vmovdqu 10656(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 480(%rax) vpextrd $0, %xmm8, 496(%rax) vmovdqu 10688(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 500(%rax) vpextrd $0, %xmm8, 516(%rax) vmovdqu 10720(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 520(%rax) vpextrd $0, %xmm8, 536(%rax) vmovdqu 10752(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 540(%rax) vpextrd $0, %xmm8, 556(%rax) vmovdqu 10784(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 560(%rax) vpextrd $0, %xmm8, 576(%rax) vmovdqu 10816(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 580(%rax) vpextrd $0, %xmm8, 596(%rax) vmovdqu 10848(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 600(%rax) vpextrd $0, %xmm8, 616(%rax) vmovdqu 10880(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 620(%rax) vpextrd $0, %xmm8, 636(%rax) vmovdqu 10912(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 640(%rax) vpextrd $0, %xmm8, 656(%rax) vmovdqu 10944(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 660(%rax) vpextrd $0, %xmm8, 676(%rax) vmovdqu 10976(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 680(%rax) vpextrd $0, %xmm8, 696(%rax) vmovdqu 11008(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 700(%rax) vpextrd $0, %xmm8, 716(%rax) vmovdqu 11040(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 720(%rax) vpextrd $0, %xmm8, 736(%rax) vmovdqu 11072(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 740(%rax) vpextrd $0, %xmm8, 756(%rax) vmovdqu 11104(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 760(%rax) vpextrd $0, %xmm8, 776(%rax) vmovdqu 11136(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 780(%rax) vpextrd $0, %xmm8, 796(%rax) vmovdqu 11168(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 800(%rax) vpextrd $0, %xmm8, 816(%rax) vmovdqu 11200(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 820(%rax) vpextrd $0, %xmm8, 836(%rax) vmovdqu 11232(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 840(%rax) vpextrd $0, %xmm8, 856(%rax) vmovdqu 11264(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 860(%rax) vpextrd $0, %xmm8, 876(%rax) vmovdqu 11296(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 880(%rax) vpextrd $0, %xmm8, 896(%rax) vmovdqu 11328(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 900(%rax) vpextrd $0, %xmm8, 916(%rax) vmovdqu 11360(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm9 vpaddw %ymm2, %ymm8, %ymm10 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm10, %ymm9, %ymm10 vpandn %ymm10, %ymm9, %ymm9 vpsrlw $15, %ymm9, %ymm9 vpsubw %ymm9, %ymm8, %ymm8 vpmulhrsw %ymm3, %ymm8, %ymm8 vpand %ymm4, %ymm8, %ymm8 vpmaddwd %ymm5, %ymm8, %ymm8 vpsllvd %ymm6, %ymm8, %ymm8 vpsrlq $12, %ymm8, %ymm8 vpshufb %ymm7, %ymm8, %ymm8 vmovdqu %xmm8, %xmm9 vextracti128 $1, %ymm8, %xmm8 vpblendw $-32, %xmm8, %xmm9, %xmm9 vmovdqu %xmm9, 920(%rax) vpextrd $0, %xmm8, 936(%rax) vmovdqu 11392(%rsp), %ymm8 vpmullw %ymm1, %ymm8, %ymm1 vpaddw %ymm2, %ymm8, %ymm2 vpsllw $3, %ymm8, %ymm8 vpmulhw %ymm0, %ymm8, %ymm0 vpsubw %ymm2, %ymm1, %ymm2 vpandn %ymm2, %ymm1, %ymm1 vpsrlw $15, %ymm1, %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vpmulhrsw %ymm3, %ymm0, %ymm0 vpand %ymm4, %ymm0, %ymm0 vpmaddwd %ymm5, %ymm0, %ymm0 vpsllvd %ymm6, %ymm0, %ymm0 vpsrlq $12, %ymm0, %ymm0 vpshufb %ymm7, %ymm0, %ymm0 vmovdqu %xmm0, %xmm1 vextracti128 $1, %ymm0, %xmm0 vpblendw $-32, %xmm0, %xmm1, %xmm1 vmovdqu %xmm1, 940(%rax) vpextrd $0, %xmm0, 956(%rax) addq $960, %rax leaq 3456(%rsp), %rcx leaq L__crypto_kem_enc_derand_jazz$4(%rip), %rsi jmp L_poly_compress$1 L__crypto_kem_enc_derand_jazz$4: movq 16040(%rsp), %r8 movq $1088, %rdi leaq 128(%rsp), %rax leaq -256(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$3(%rip), %rcx movq %rcx, 224(%rsp) jmp L_sha3_256$1 L__crypto_kem_enc_derand_jazz$3: leaq 256(%rsp), %rsp movq 16048(%rsp), %rdx movq $32, %rcx leaq 96(%rsp), %rax leaq -256(%rsp), %rsp leaq L__crypto_kem_enc_derand_jazz$2(%rip), %rsi movq %rsi, 224(%rsp) jmp L_shake256_64$1 L__crypto_kem_enc_derand_jazz$2: leaq 256(%rsp), %rsp jmp *16056(%rsp) L__crypto_kem_keypair_derand_jazz$1: movq %rax, 12896(%rsp) movq %rbp, 12904(%rsp) movq %rbx, 12912(%rsp) movq %rax, %rcx movq %rbp, 12920(%rsp) movq %rbx, 12928(%rsp) leaq 12936(%rsp), %rax leaq -256(%rsp), %rsp leaq L__crypto_kem_keypair_derand_jazz$121(%rip), %rdx movq %rdx, 224(%rsp) jmp L_sha3_512_32$1 L__crypto_kem_keypair_derand_jazz$121: leaq 256(%rsp), %rsp movq 12936(%rsp), %rax movq %rax, (%rsp) movq 12968(%rsp), %rax movq %rax, 32(%rsp) movq 12944(%rsp), %rax movq %rax, 8(%rsp) movq 12976(%rsp), %rax movq %rax, 40(%rsp) movq 12952(%rsp), %rax movq %rax, 16(%rsp) movq 12984(%rsp), %rax movq %rax, 48(%rsp) movq 12960(%rsp), %rax movq %rax, 24(%rsp) movq 12992(%rsp), %rax movq %rax, 56(%rsp) vmovdqu (%rsp), %ymm0 vmovdqu %ymm0, 320(%rsp) vmovdqu %ymm0, 832(%rsp) vmovdqu %ymm0, 1344(%rsp) vmovdqu %ymm0, 1856(%rsp) vmovdqu %ymm0, 64(%rsp) movb $0, 352(%rsp) movb $0, 353(%rsp) movb $1, 864(%rsp) movb $0, 865(%rsp) movb $2, 1376(%rsp) movb $0, 1377(%rsp) movb $0, 1888(%rsp) movb $1, 1889(%rsp) leaq 2880(%rsp), %rax leaq 320(%rsp), %rcx leaq 832(%rsp), %rdx leaq 1344(%rsp), %rsi leaq 1856(%rsp), %rdi leaq -8(%rsp), %rsp leaq L__crypto_kem_keypair_derand_jazz$120(%rip), %r8 movq %r8, (%rsp) jmp L_shake128_absorb4x_34$1 L__crypto_kem_keypair_derand_jazz$120: leaq 8(%rsp), %rsp leaq 2880(%rsp), %rax leaq 320(%rsp), %rdi leaq 832(%rsp), %r8 leaq 1344(%rsp), %r9 leaq 1856(%rsp), %r10 movq %rdi, %r11 movq %r8, %rbx movq %r9, %rbp movq %r10, %r12 leaq -832(%rsp), %rsp leaq L__crypto_kem_keypair_derand_jazz$119(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_keypair_derand_jazz$119: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r11) vmovhpd %xmm1, (%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbp) vmovhpd %xmm0, (%r12) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r11) vmovhpd %xmm1, 8(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbp) vmovhpd %xmm0, 8(%r12) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r11) vmovhpd %xmm1, 16(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbp) vmovhpd %xmm0, 16(%r12) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r11) vmovhpd %xmm1, 24(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbp) vmovhpd %xmm0, 24(%r12) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r11) vmovhpd %xmm1, 32(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbp) vmovhpd %xmm0, 32(%r12) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r11) vmovhpd %xmm1, 40(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbp) vmovhpd %xmm0, 40(%r12) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r11) vmovhpd %xmm1, 48(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbp) vmovhpd %xmm0, 48(%r12) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r11) vmovhpd %xmm1, 56(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbp) vmovhpd %xmm0, 56(%r12) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r11) vmovhpd %xmm1, 64(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbp) vmovhpd %xmm0, 64(%r12) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r11) vmovhpd %xmm1, 72(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbp) vmovhpd %xmm0, 72(%r12) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r11) vmovhpd %xmm1, 80(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbp) vmovhpd %xmm0, 80(%r12) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r11) vmovhpd %xmm1, 88(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbp) vmovhpd %xmm0, 88(%r12) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r11) vmovhpd %xmm1, 96(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbp) vmovhpd %xmm0, 96(%r12) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r11) vmovhpd %xmm1, 104(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbp) vmovhpd %xmm0, 104(%r12) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r11) vmovhpd %xmm1, 112(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbp) vmovhpd %xmm0, 112(%r12) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r11) vmovhpd %xmm1, 120(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbp) vmovhpd %xmm0, 120(%r12) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r11) vmovhpd %xmm1, 128(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbp) vmovhpd %xmm0, 128(%r12) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r11) vmovhpd %xmm1, 136(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbp) vmovhpd %xmm0, 136(%r12) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r11) vmovhpd %xmm1, 144(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbp) vmovhpd %xmm0, 144(%r12) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r11) vmovhpd %xmm1, 152(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbp) vmovhpd %xmm0, 152(%r12) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r11) vmovhpd %xmm1, 160(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbp) vmovhpd %xmm0, 160(%r12) leaq 168(%rdi), %r11 leaq 168(%r8), %rbx leaq 168(%r9), %rbp leaq 168(%r10), %r12 leaq -832(%rsp), %rsp leaq L__crypto_kem_keypair_derand_jazz$118(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_keypair_derand_jazz$118: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r11) vmovhpd %xmm1, (%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbp) vmovhpd %xmm0, (%r12) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r11) vmovhpd %xmm1, 8(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbp) vmovhpd %xmm0, 8(%r12) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r11) vmovhpd %xmm1, 16(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbp) vmovhpd %xmm0, 16(%r12) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r11) vmovhpd %xmm1, 24(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbp) vmovhpd %xmm0, 24(%r12) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r11) vmovhpd %xmm1, 32(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbp) vmovhpd %xmm0, 32(%r12) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r11) vmovhpd %xmm1, 40(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbp) vmovhpd %xmm0, 40(%r12) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r11) vmovhpd %xmm1, 48(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbp) vmovhpd %xmm0, 48(%r12) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r11) vmovhpd %xmm1, 56(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbp) vmovhpd %xmm0, 56(%r12) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r11) vmovhpd %xmm1, 64(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbp) vmovhpd %xmm0, 64(%r12) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r11) vmovhpd %xmm1, 72(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbp) vmovhpd %xmm0, 72(%r12) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r11) vmovhpd %xmm1, 80(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbp) vmovhpd %xmm0, 80(%r12) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r11) vmovhpd %xmm1, 88(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbp) vmovhpd %xmm0, 88(%r12) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r11) vmovhpd %xmm1, 96(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbp) vmovhpd %xmm0, 96(%r12) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r11) vmovhpd %xmm1, 104(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbp) vmovhpd %xmm0, 104(%r12) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r11) vmovhpd %xmm1, 112(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbp) vmovhpd %xmm0, 112(%r12) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r11) vmovhpd %xmm1, 120(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbp) vmovhpd %xmm0, 120(%r12) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r11) vmovhpd %xmm1, 128(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbp) vmovhpd %xmm0, 128(%r12) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r11) vmovhpd %xmm1, 136(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbp) vmovhpd %xmm0, 136(%r12) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r11) vmovhpd %xmm1, 144(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbp) vmovhpd %xmm0, 144(%r12) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r11) vmovhpd %xmm1, 152(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbp) vmovhpd %xmm0, 152(%r12) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r11) vmovhpd %xmm1, 160(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbp) vmovhpd %xmm0, 160(%r12) leaq 336(%rdi), %rdi leaq 336(%r8), %r8 leaq 336(%r9), %r9 leaq 336(%r10), %r10 leaq -832(%rsp), %rsp leaq L__crypto_kem_keypair_derand_jazz$117(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_keypair_derand_jazz$117: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%rdi) vmovhpd %xmm1, (%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%r9) vmovhpd %xmm0, (%r10) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%rdi) vmovhpd %xmm1, 8(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%r9) vmovhpd %xmm0, 8(%r10) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%rdi) vmovhpd %xmm1, 16(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%r9) vmovhpd %xmm0, 16(%r10) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%rdi) vmovhpd %xmm1, 24(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%r9) vmovhpd %xmm0, 24(%r10) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%rdi) vmovhpd %xmm1, 32(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%r9) vmovhpd %xmm0, 32(%r10) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%rdi) vmovhpd %xmm1, 40(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%r9) vmovhpd %xmm0, 40(%r10) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%rdi) vmovhpd %xmm1, 48(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%r9) vmovhpd %xmm0, 48(%r10) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%rdi) vmovhpd %xmm1, 56(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%r9) vmovhpd %xmm0, 56(%r10) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%rdi) vmovhpd %xmm1, 64(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%r9) vmovhpd %xmm0, 64(%r10) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%rdi) vmovhpd %xmm1, 72(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%r9) vmovhpd %xmm0, 72(%r10) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%rdi) vmovhpd %xmm1, 80(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%r9) vmovhpd %xmm0, 80(%r10) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%rdi) vmovhpd %xmm1, 88(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%r9) vmovhpd %xmm0, 88(%r10) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%rdi) vmovhpd %xmm1, 96(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%r9) vmovhpd %xmm0, 96(%r10) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%rdi) vmovhpd %xmm1, 104(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%r9) vmovhpd %xmm0, 104(%r10) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%rdi) vmovhpd %xmm1, 112(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%r9) vmovhpd %xmm0, 112(%r10) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%rdi) vmovhpd %xmm1, 120(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%r9) vmovhpd %xmm0, 120(%r10) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%rdi) vmovhpd %xmm1, 128(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%r9) vmovhpd %xmm0, 128(%r10) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%rdi) vmovhpd %xmm1, 136(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%r9) vmovhpd %xmm0, 136(%r10) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%rdi) vmovhpd %xmm1, 144(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%r9) vmovhpd %xmm0, 144(%r10) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%rdi) vmovhpd %xmm1, 152(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%r9) vmovhpd %xmm0, 152(%r10) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%rdi) vmovhpd %xmm1, 160(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%r9) vmovhpd %xmm0, 160(%r10) leaq 8288(%rsp), %rbx leaq 320(%rsp), %rbp leaq L__crypto_kem_keypair_derand_jazz$116(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_keypair_derand_jazz$116: movq %r13, %rdi leaq 8800(%rsp), %rbx leaq 832(%rsp), %rbp leaq L__crypto_kem_keypair_derand_jazz$115(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_keypair_derand_jazz$115: movq %r13, %r9 leaq 9312(%rsp), %rbx leaq 1344(%rsp), %rbp leaq L__crypto_kem_keypair_derand_jazz$114(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_keypair_derand_jazz$114: movq %r13, %r8 leaq 9824(%rsp), %rbx leaq 1856(%rsp), %rbp leaq L__crypto_kem_keypair_derand_jazz$113(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_keypair_derand_jazz$113: cmpq $255, %rdi setbe %al cmpq $255, %r9 setbe %cl orb %cl, %al cmpq $255, %r8 setbe %cl cmpq $255, %r13 setbe %dl orb %dl, %cl orb %al, %cl jmp L__crypto_kem_keypair_derand_jazz$90 L__crypto_kem_keypair_derand_jazz$91: leaq 2880(%rsp), %rax leaq 320(%rsp), %r10 leaq 832(%rsp), %r11 leaq 1344(%rsp), %rbx leaq 1856(%rsp), %rbp leaq -832(%rsp), %rsp leaq L__crypto_kem_keypair_derand_jazz$112(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_keypair_derand_jazz$112: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r10) vmovhpd %xmm1, (%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbx) vmovhpd %xmm0, (%rbp) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r10) vmovhpd %xmm1, 8(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbx) vmovhpd %xmm0, 8(%rbp) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r10) vmovhpd %xmm1, 16(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbx) vmovhpd %xmm0, 16(%rbp) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r10) vmovhpd %xmm1, 24(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbx) vmovhpd %xmm0, 24(%rbp) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r10) vmovhpd %xmm1, 32(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbx) vmovhpd %xmm0, 32(%rbp) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r10) vmovhpd %xmm1, 40(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbx) vmovhpd %xmm0, 40(%rbp) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r10) vmovhpd %xmm1, 48(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbx) vmovhpd %xmm0, 48(%rbp) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r10) vmovhpd %xmm1, 56(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbx) vmovhpd %xmm0, 56(%rbp) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r10) vmovhpd %xmm1, 64(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbx) vmovhpd %xmm0, 64(%rbp) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r10) vmovhpd %xmm1, 72(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbx) vmovhpd %xmm0, 72(%rbp) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r10) vmovhpd %xmm1, 80(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbx) vmovhpd %xmm0, 80(%rbp) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r10) vmovhpd %xmm1, 88(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbx) vmovhpd %xmm0, 88(%rbp) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r10) vmovhpd %xmm1, 96(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbx) vmovhpd %xmm0, 96(%rbp) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r10) vmovhpd %xmm1, 104(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbx) vmovhpd %xmm0, 104(%rbp) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r10) vmovhpd %xmm1, 112(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbx) vmovhpd %xmm0, 112(%rbp) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r10) vmovhpd %xmm1, 120(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbx) vmovhpd %xmm0, 120(%rbp) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r10) vmovhpd %xmm1, 128(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbx) vmovhpd %xmm0, 128(%rbp) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r10) vmovhpd %xmm1, 136(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbx) vmovhpd %xmm0, 136(%rbp) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r10) vmovhpd %xmm1, 144(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbx) vmovhpd %xmm0, 144(%rbp) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r10) vmovhpd %xmm1, 152(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbx) vmovhpd %xmm0, 152(%rbp) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r10) vmovhpd %xmm1, 160(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbx) vmovhpd %xmm0, 160(%rbp) leaq 8288(%rsp), %rax leaq 320(%rsp), %rcx movq $0, %rdx cmpq $255, %rdi setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_keypair_derand_jazz$107 L__crypto_kem_keypair_derand_jazz$108: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_keypair_derand_jazz$111 movw %si, (%rax,%rdi,2) incq %rdi L__crypto_kem_keypair_derand_jazz$111: cmpq $256, %rdi jnb L__crypto_kem_keypair_derand_jazz$109 cmpw $3329, %r11w jnb L__crypto_kem_keypair_derand_jazz$109 movw %r11w, (%rax,%rdi,2) incq %rdi L__crypto_kem_keypair_derand_jazz$110: L__crypto_kem_keypair_derand_jazz$109: cmpq $255, %rdi setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_keypair_derand_jazz$107: jne L__crypto_kem_keypair_derand_jazz$108 leaq 8800(%rsp), %rax leaq 832(%rsp), %rcx movq $0, %rdx cmpq $255, %r9 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_keypair_derand_jazz$102 L__crypto_kem_keypair_derand_jazz$103: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_keypair_derand_jazz$106 movw %si, (%rax,%r9,2) incq %r9 L__crypto_kem_keypair_derand_jazz$106: cmpq $256, %r9 jnb L__crypto_kem_keypair_derand_jazz$104 cmpw $3329, %r11w jnb L__crypto_kem_keypair_derand_jazz$104 movw %r11w, (%rax,%r9,2) incq %r9 L__crypto_kem_keypair_derand_jazz$105: L__crypto_kem_keypair_derand_jazz$104: cmpq $255, %r9 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_keypair_derand_jazz$102: jne L__crypto_kem_keypair_derand_jazz$103 leaq 9312(%rsp), %rax leaq 1344(%rsp), %rcx movq $0, %rdx cmpq $255, %r8 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_keypair_derand_jazz$97 L__crypto_kem_keypair_derand_jazz$98: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_keypair_derand_jazz$101 movw %si, (%rax,%r8,2) incq %r8 L__crypto_kem_keypair_derand_jazz$101: cmpq $256, %r8 jnb L__crypto_kem_keypair_derand_jazz$99 cmpw $3329, %r11w jnb L__crypto_kem_keypair_derand_jazz$99 movw %r11w, (%rax,%r8,2) incq %r8 L__crypto_kem_keypair_derand_jazz$100: L__crypto_kem_keypair_derand_jazz$99: cmpq $255, %r8 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_keypair_derand_jazz$97: jne L__crypto_kem_keypair_derand_jazz$98 leaq 9824(%rsp), %rax leaq 1856(%rsp), %rcx movq $0, %rdx cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_keypair_derand_jazz$92 L__crypto_kem_keypair_derand_jazz$93: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_keypair_derand_jazz$96 movw %si, (%rax,%r13,2) incq %r13 L__crypto_kem_keypair_derand_jazz$96: cmpq $256, %r13 jnb L__crypto_kem_keypair_derand_jazz$94 cmpw $3329, %r11w jnb L__crypto_kem_keypair_derand_jazz$94 movw %r11w, (%rax,%r13,2) incq %r13 L__crypto_kem_keypair_derand_jazz$95: L__crypto_kem_keypair_derand_jazz$94: cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_keypair_derand_jazz$92: jne L__crypto_kem_keypair_derand_jazz$93 cmpq $255, %rdi setbe %al cmpq $255, %r9 setbe %cl orb %cl, %al cmpq $255, %r8 setbe %cl cmpq $255, %r13 setbe %dl orb %dl, %cl orb %al, %cl L__crypto_kem_keypair_derand_jazz$90: jne L__crypto_kem_keypair_derand_jazz$91 vmovdqu 64(%rsp), %ymm0 vmovdqu %ymm0, 320(%rsp) vmovdqu %ymm0, 832(%rsp) vmovdqu %ymm0, 1344(%rsp) vmovdqu %ymm0, 1856(%rsp) vmovdqu %ymm0, 64(%rsp) movb $1, 352(%rsp) movb $1, 353(%rsp) movb $2, 864(%rsp) movb $1, 865(%rsp) movb $0, 1376(%rsp) movb $2, 1377(%rsp) movb $1, 1888(%rsp) movb $2, 1889(%rsp) leaq 2880(%rsp), %rax leaq 320(%rsp), %rcx leaq 832(%rsp), %rdx leaq 1344(%rsp), %rsi leaq 1856(%rsp), %rdi leaq -8(%rsp), %rsp leaq L__crypto_kem_keypair_derand_jazz$89(%rip), %r8 movq %r8, (%rsp) jmp L_shake128_absorb4x_34$1 L__crypto_kem_keypair_derand_jazz$89: leaq 8(%rsp), %rsp leaq 2880(%rsp), %rax leaq 320(%rsp), %rdi leaq 832(%rsp), %r8 leaq 1344(%rsp), %r9 leaq 1856(%rsp), %r10 movq %rdi, %r11 movq %r8, %rbx movq %r9, %rbp movq %r10, %r12 leaq -832(%rsp), %rsp leaq L__crypto_kem_keypair_derand_jazz$88(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_keypair_derand_jazz$88: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r11) vmovhpd %xmm1, (%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbp) vmovhpd %xmm0, (%r12) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r11) vmovhpd %xmm1, 8(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbp) vmovhpd %xmm0, 8(%r12) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r11) vmovhpd %xmm1, 16(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbp) vmovhpd %xmm0, 16(%r12) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r11) vmovhpd %xmm1, 24(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbp) vmovhpd %xmm0, 24(%r12) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r11) vmovhpd %xmm1, 32(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbp) vmovhpd %xmm0, 32(%r12) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r11) vmovhpd %xmm1, 40(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbp) vmovhpd %xmm0, 40(%r12) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r11) vmovhpd %xmm1, 48(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbp) vmovhpd %xmm0, 48(%r12) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r11) vmovhpd %xmm1, 56(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbp) vmovhpd %xmm0, 56(%r12) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r11) vmovhpd %xmm1, 64(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbp) vmovhpd %xmm0, 64(%r12) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r11) vmovhpd %xmm1, 72(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbp) vmovhpd %xmm0, 72(%r12) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r11) vmovhpd %xmm1, 80(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbp) vmovhpd %xmm0, 80(%r12) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r11) vmovhpd %xmm1, 88(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbp) vmovhpd %xmm0, 88(%r12) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r11) vmovhpd %xmm1, 96(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbp) vmovhpd %xmm0, 96(%r12) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r11) vmovhpd %xmm1, 104(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbp) vmovhpd %xmm0, 104(%r12) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r11) vmovhpd %xmm1, 112(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbp) vmovhpd %xmm0, 112(%r12) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r11) vmovhpd %xmm1, 120(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbp) vmovhpd %xmm0, 120(%r12) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r11) vmovhpd %xmm1, 128(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbp) vmovhpd %xmm0, 128(%r12) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r11) vmovhpd %xmm1, 136(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbp) vmovhpd %xmm0, 136(%r12) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r11) vmovhpd %xmm1, 144(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbp) vmovhpd %xmm0, 144(%r12) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r11) vmovhpd %xmm1, 152(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbp) vmovhpd %xmm0, 152(%r12) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r11) vmovhpd %xmm1, 160(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbp) vmovhpd %xmm0, 160(%r12) leaq 168(%rdi), %r11 leaq 168(%r8), %rbx leaq 168(%r9), %rbp leaq 168(%r10), %r12 leaq -832(%rsp), %rsp leaq L__crypto_kem_keypair_derand_jazz$87(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_keypair_derand_jazz$87: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r11) vmovhpd %xmm1, (%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbp) vmovhpd %xmm0, (%r12) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r11) vmovhpd %xmm1, 8(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbp) vmovhpd %xmm0, 8(%r12) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r11) vmovhpd %xmm1, 16(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbp) vmovhpd %xmm0, 16(%r12) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r11) vmovhpd %xmm1, 24(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbp) vmovhpd %xmm0, 24(%r12) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r11) vmovhpd %xmm1, 32(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbp) vmovhpd %xmm0, 32(%r12) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r11) vmovhpd %xmm1, 40(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbp) vmovhpd %xmm0, 40(%r12) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r11) vmovhpd %xmm1, 48(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbp) vmovhpd %xmm0, 48(%r12) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r11) vmovhpd %xmm1, 56(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbp) vmovhpd %xmm0, 56(%r12) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r11) vmovhpd %xmm1, 64(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbp) vmovhpd %xmm0, 64(%r12) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r11) vmovhpd %xmm1, 72(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbp) vmovhpd %xmm0, 72(%r12) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r11) vmovhpd %xmm1, 80(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbp) vmovhpd %xmm0, 80(%r12) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r11) vmovhpd %xmm1, 88(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbp) vmovhpd %xmm0, 88(%r12) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r11) vmovhpd %xmm1, 96(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbp) vmovhpd %xmm0, 96(%r12) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r11) vmovhpd %xmm1, 104(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbp) vmovhpd %xmm0, 104(%r12) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r11) vmovhpd %xmm1, 112(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbp) vmovhpd %xmm0, 112(%r12) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r11) vmovhpd %xmm1, 120(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbp) vmovhpd %xmm0, 120(%r12) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r11) vmovhpd %xmm1, 128(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbp) vmovhpd %xmm0, 128(%r12) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r11) vmovhpd %xmm1, 136(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbp) vmovhpd %xmm0, 136(%r12) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r11) vmovhpd %xmm1, 144(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbp) vmovhpd %xmm0, 144(%r12) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r11) vmovhpd %xmm1, 152(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbp) vmovhpd %xmm0, 152(%r12) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r11) vmovhpd %xmm1, 160(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbp) vmovhpd %xmm0, 160(%r12) leaq 336(%rdi), %rdi leaq 336(%r8), %r8 leaq 336(%r9), %r9 leaq 336(%r10), %r10 leaq -832(%rsp), %rsp leaq L__crypto_kem_keypair_derand_jazz$86(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_keypair_derand_jazz$86: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%rdi) vmovhpd %xmm1, (%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%r9) vmovhpd %xmm0, (%r10) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%rdi) vmovhpd %xmm1, 8(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%r9) vmovhpd %xmm0, 8(%r10) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%rdi) vmovhpd %xmm1, 16(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%r9) vmovhpd %xmm0, 16(%r10) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%rdi) vmovhpd %xmm1, 24(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%r9) vmovhpd %xmm0, 24(%r10) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%rdi) vmovhpd %xmm1, 32(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%r9) vmovhpd %xmm0, 32(%r10) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%rdi) vmovhpd %xmm1, 40(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%r9) vmovhpd %xmm0, 40(%r10) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%rdi) vmovhpd %xmm1, 48(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%r9) vmovhpd %xmm0, 48(%r10) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%rdi) vmovhpd %xmm1, 56(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%r9) vmovhpd %xmm0, 56(%r10) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%rdi) vmovhpd %xmm1, 64(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%r9) vmovhpd %xmm0, 64(%r10) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%rdi) vmovhpd %xmm1, 72(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%r9) vmovhpd %xmm0, 72(%r10) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%rdi) vmovhpd %xmm1, 80(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%r9) vmovhpd %xmm0, 80(%r10) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%rdi) vmovhpd %xmm1, 88(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%r9) vmovhpd %xmm0, 88(%r10) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%rdi) vmovhpd %xmm1, 96(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%r9) vmovhpd %xmm0, 96(%r10) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%rdi) vmovhpd %xmm1, 104(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%r9) vmovhpd %xmm0, 104(%r10) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%rdi) vmovhpd %xmm1, 112(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%r9) vmovhpd %xmm0, 112(%r10) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%rdi) vmovhpd %xmm1, 120(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%r9) vmovhpd %xmm0, 120(%r10) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%rdi) vmovhpd %xmm1, 128(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%r9) vmovhpd %xmm0, 128(%r10) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%rdi) vmovhpd %xmm1, 136(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%r9) vmovhpd %xmm0, 136(%r10) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%rdi) vmovhpd %xmm1, 144(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%r9) vmovhpd %xmm0, 144(%r10) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%rdi) vmovhpd %xmm1, 152(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%r9) vmovhpd %xmm0, 152(%r10) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%rdi) vmovhpd %xmm1, 160(%r8) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%r9) vmovhpd %xmm0, 160(%r10) leaq 10336(%rsp), %rbx leaq 320(%rsp), %rbp leaq L__crypto_kem_keypair_derand_jazz$85(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_keypair_derand_jazz$85: movq %r13, %r9 leaq 10848(%rsp), %rbx leaq 832(%rsp), %rbp leaq L__crypto_kem_keypair_derand_jazz$84(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_keypair_derand_jazz$84: movq %r13, %rdi leaq 11360(%rsp), %rbx leaq 1344(%rsp), %rbp leaq L__crypto_kem_keypair_derand_jazz$83(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_keypair_derand_jazz$83: movq %r13, %r8 leaq 11872(%rsp), %rbx leaq 1856(%rsp), %rbp leaq L__crypto_kem_keypair_derand_jazz$82(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_keypair_derand_jazz$82: cmpq $255, %r9 setbe %al cmpq $255, %rdi setbe %cl orb %cl, %al cmpq $255, %r8 setbe %cl cmpq $255, %r13 setbe %dl orb %dl, %cl orb %al, %cl jmp L__crypto_kem_keypair_derand_jazz$59 L__crypto_kem_keypair_derand_jazz$60: leaq 2880(%rsp), %rax leaq 320(%rsp), %r10 leaq 832(%rsp), %r11 leaq 1344(%rsp), %rbx leaq 1856(%rsp), %rbp leaq -832(%rsp), %rsp leaq L__crypto_kem_keypair_derand_jazz$81(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L__crypto_kem_keypair_derand_jazz$81: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r10) vmovhpd %xmm1, (%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbx) vmovhpd %xmm0, (%rbp) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r10) vmovhpd %xmm1, 8(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbx) vmovhpd %xmm0, 8(%rbp) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r10) vmovhpd %xmm1, 16(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbx) vmovhpd %xmm0, 16(%rbp) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r10) vmovhpd %xmm1, 24(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbx) vmovhpd %xmm0, 24(%rbp) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r10) vmovhpd %xmm1, 32(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbx) vmovhpd %xmm0, 32(%rbp) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r10) vmovhpd %xmm1, 40(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbx) vmovhpd %xmm0, 40(%rbp) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r10) vmovhpd %xmm1, 48(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbx) vmovhpd %xmm0, 48(%rbp) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r10) vmovhpd %xmm1, 56(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbx) vmovhpd %xmm0, 56(%rbp) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r10) vmovhpd %xmm1, 64(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbx) vmovhpd %xmm0, 64(%rbp) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r10) vmovhpd %xmm1, 72(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbx) vmovhpd %xmm0, 72(%rbp) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r10) vmovhpd %xmm1, 80(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbx) vmovhpd %xmm0, 80(%rbp) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r10) vmovhpd %xmm1, 88(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbx) vmovhpd %xmm0, 88(%rbp) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r10) vmovhpd %xmm1, 96(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbx) vmovhpd %xmm0, 96(%rbp) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r10) vmovhpd %xmm1, 104(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbx) vmovhpd %xmm0, 104(%rbp) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r10) vmovhpd %xmm1, 112(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbx) vmovhpd %xmm0, 112(%rbp) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r10) vmovhpd %xmm1, 120(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbx) vmovhpd %xmm0, 120(%rbp) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r10) vmovhpd %xmm1, 128(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbx) vmovhpd %xmm0, 128(%rbp) vmovdqu 544(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 136(%r10) vmovhpd %xmm1, 136(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 136(%rbx) vmovhpd %xmm0, 136(%rbp) vmovdqu 576(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 144(%r10) vmovhpd %xmm1, 144(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 144(%rbx) vmovhpd %xmm0, 144(%rbp) vmovdqu 608(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 152(%r10) vmovhpd %xmm1, 152(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 152(%rbx) vmovhpd %xmm0, 152(%rbp) vmovdqu 640(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 160(%r10) vmovhpd %xmm1, 160(%r11) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 160(%rbx) vmovhpd %xmm0, 160(%rbp) leaq 10336(%rsp), %rax leaq 320(%rsp), %rcx movq $0, %rdx cmpq $255, %r9 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_keypair_derand_jazz$76 L__crypto_kem_keypair_derand_jazz$77: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_keypair_derand_jazz$80 movw %si, (%rax,%r9,2) incq %r9 L__crypto_kem_keypair_derand_jazz$80: cmpq $256, %r9 jnb L__crypto_kem_keypair_derand_jazz$78 cmpw $3329, %r11w jnb L__crypto_kem_keypair_derand_jazz$78 movw %r11w, (%rax,%r9,2) incq %r9 L__crypto_kem_keypair_derand_jazz$79: L__crypto_kem_keypair_derand_jazz$78: cmpq $255, %r9 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_keypair_derand_jazz$76: jne L__crypto_kem_keypair_derand_jazz$77 leaq 10848(%rsp), %rax leaq 832(%rsp), %rcx movq $0, %rdx cmpq $255, %rdi setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_keypair_derand_jazz$71 L__crypto_kem_keypair_derand_jazz$72: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_keypair_derand_jazz$75 movw %si, (%rax,%rdi,2) incq %rdi L__crypto_kem_keypair_derand_jazz$75: cmpq $256, %rdi jnb L__crypto_kem_keypair_derand_jazz$73 cmpw $3329, %r11w jnb L__crypto_kem_keypair_derand_jazz$73 movw %r11w, (%rax,%rdi,2) incq %rdi L__crypto_kem_keypair_derand_jazz$74: L__crypto_kem_keypair_derand_jazz$73: cmpq $255, %rdi setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_keypair_derand_jazz$71: jne L__crypto_kem_keypair_derand_jazz$72 leaq 11360(%rsp), %rax leaq 1344(%rsp), %rcx movq $0, %rdx cmpq $255, %r8 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_keypair_derand_jazz$66 L__crypto_kem_keypair_derand_jazz$67: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_keypair_derand_jazz$70 movw %si, (%rax,%r8,2) incq %r8 L__crypto_kem_keypair_derand_jazz$70: cmpq $256, %r8 jnb L__crypto_kem_keypair_derand_jazz$68 cmpw $3329, %r11w jnb L__crypto_kem_keypair_derand_jazz$68 movw %r11w, (%rax,%r8,2) incq %r8 L__crypto_kem_keypair_derand_jazz$69: L__crypto_kem_keypair_derand_jazz$68: cmpq $255, %r8 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_keypair_derand_jazz$66: jne L__crypto_kem_keypair_derand_jazz$67 leaq 11872(%rsp), %rax leaq 1856(%rsp), %rcx movq $0, %rdx cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil jmp L__crypto_kem_keypair_derand_jazz$61 L__crypto_kem_keypair_derand_jazz$62: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %r10w movw %r10w, %r11w shrw $4, %r11w andw $15, %r10w shlw $8, %r10w orw %r10w, %si incq %rdx movzbw (%rcx,%rdx), %r10w shlw $4, %r10w orw %r10w, %r11w incq %rdx cmpw $3329, %si jnb L__crypto_kem_keypair_derand_jazz$65 movw %si, (%rax,%r13,2) incq %r13 L__crypto_kem_keypair_derand_jazz$65: cmpq $256, %r13 jnb L__crypto_kem_keypair_derand_jazz$63 cmpw $3329, %r11w jnb L__crypto_kem_keypair_derand_jazz$63 movw %r11w, (%rax,%r13,2) incq %r13 L__crypto_kem_keypair_derand_jazz$64: L__crypto_kem_keypair_derand_jazz$63: cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %r10b testb %r10b, %sil L__crypto_kem_keypair_derand_jazz$61: jne L__crypto_kem_keypair_derand_jazz$62 cmpq $255, %r9 setbe %al cmpq $255, %rdi setbe %cl orb %cl, %al cmpq $255, %r8 setbe %cl cmpq $255, %r13 setbe %dl orb %dl, %cl orb %al, %cl L__crypto_kem_keypair_derand_jazz$59: jne L__crypto_kem_keypair_derand_jazz$60 vmovdqu 64(%rsp), %ymm0 vmovdqu %ymm0, 320(%rsp) movb $2, 352(%rsp) movb $2, 353(%rsp) leaq 320(%rsp), %rax vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm0, 128(%rsp) vmovdqu %ymm0, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vmovdqu %ymm0, 224(%rsp) vmovdqu %ymm0, 256(%rsp) vmovdqu %ymm0, 288(%rsp) vpbroadcastq (%rax), %ymm5 movq 8(%rax), %rcx movq glob_data + 6208(%rip), %rdx movq %rcx, 96(%rsp,%rdx,8) movq 16(%rax), %rcx movq glob_data + 6216(%rip), %rdx movq %rcx, 96(%rsp,%rdx,8) movq 24(%rax), %rcx movq glob_data + 6224(%rip), %rdx movq %rcx, 96(%rsp,%rdx,8) movb 32(%rax), %cl movq glob_data + 6232(%rip), %rdx shlq $3, %rdx movb %cl, 96(%rsp,%rdx) movb 33(%rax), %al incq %rdx movb %al, 96(%rsp,%rdx) incq %rdx movb $31, 96(%rsp,%rdx) movq glob_data + 6360(%rip), %rax shlq $3, %rax movq $167, %rcx andq $7, %rcx addq %rcx, %rax movb $-128, 96(%rsp,%rax) vmovdqu 128(%rsp), %ymm0 vmovdqu 160(%rsp), %ymm1 vmovdqu 192(%rsp), %ymm2 vmovdqu 224(%rsp), %ymm6 vmovdqu 256(%rsp), %ymm3 vmovdqu 288(%rsp), %ymm4 leaq 320(%rsp), %rax leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 L__crypto_kem_keypair_derand_jazz$58: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm3, %ymm7 vpxor %ymm4, %ymm6, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm5, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm5, %ymm5 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm6, %ymm6 vpsllvq 96(%rsi), %ymm6, %ymm7 vpsrlvq 96(%rdi), %ymm6, %ymm6 vpor %ymm7, %ymm6, %ymm10 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm6 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm6, %ymm3, %ymm3 vpxor %ymm9, %ymm4, %ymm4 vpermq $-115, %ymm1, %ymm6 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm4, %ymm1 vpsrlvq 160(%rdi), %ymm4, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm3, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm3 vpblendd $12, %ymm7, %ymm6, %ymm4 vpblendd $12, %ymm6, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm3, %ymm3 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm3, %ymm3 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm3, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm4 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm6, %ymm12 vpxor %ymm6, %ymm1, %ymm3 vpblendd $48, %ymm6, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm5, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm5, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm6, %ymm13, %ymm13 vpblendd $-64, %ymm6, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm3, %ymm2 vpermq $-115, %ymm4, %ymm3 vpermq $114, %ymm12, %ymm4 vpblendd $12, %ymm6, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm6, %ymm9, %ymm6 vpandn %ymm6, %ymm0, %ymm6 vpxor %ymm13, %ymm5, %ymm5 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm6, %ymm6 vpxor (%rcx,%rdx), %ymm5, %ymm5 addq $32, %rdx decq %r8 jne L__crypto_kem_keypair_derand_jazz$58 vmovdqu %ymm5, 96(%rsp) vmovdqu %ymm0, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) vmovdqu %ymm6, 224(%rsp) vmovdqu %ymm3, 256(%rsp) vmovdqu %ymm4, 288(%rsp) movq glob_data + 6200(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) movq glob_data + 6264(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 64(%rax) movq glob_data + 6272(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 72(%rax) movq glob_data + 6280(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 80(%rax) movq glob_data + 6288(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 88(%rax) movq glob_data + 6296(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 96(%rax) movq glob_data + 6304(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 104(%rax) movq glob_data + 6312(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 112(%rax) movq glob_data + 6320(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 120(%rax) movq glob_data + 6328(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 128(%rax) movq glob_data + 6336(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 136(%rax) movq glob_data + 6344(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 144(%rax) movq glob_data + 6352(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 152(%rax) movq glob_data + 6360(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 160(%rax) leaq 488(%rsp), %rax leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 L__crypto_kem_keypair_derand_jazz$57: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm3, %ymm7 vpxor %ymm4, %ymm6, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm5, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm5, %ymm5 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm6, %ymm6 vpsllvq 96(%rsi), %ymm6, %ymm7 vpsrlvq 96(%rdi), %ymm6, %ymm6 vpor %ymm7, %ymm6, %ymm10 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm6 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm6, %ymm3, %ymm3 vpxor %ymm9, %ymm4, %ymm4 vpermq $-115, %ymm1, %ymm6 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm4, %ymm1 vpsrlvq 160(%rdi), %ymm4, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm3, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm3 vpblendd $12, %ymm7, %ymm6, %ymm4 vpblendd $12, %ymm6, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm3, %ymm3 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm3, %ymm3 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm3, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm4 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm6, %ymm12 vpxor %ymm6, %ymm1, %ymm3 vpblendd $48, %ymm6, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm5, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm5, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm6, %ymm13, %ymm13 vpblendd $-64, %ymm6, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm3, %ymm2 vpermq $-115, %ymm4, %ymm3 vpermq $114, %ymm12, %ymm4 vpblendd $12, %ymm6, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm6, %ymm9, %ymm6 vpandn %ymm6, %ymm0, %ymm6 vpxor %ymm13, %ymm5, %ymm5 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm6, %ymm6 vpxor (%rcx,%rdx), %ymm5, %ymm5 addq $32, %rdx decq %r8 jne L__crypto_kem_keypair_derand_jazz$57 vmovdqu %ymm5, 96(%rsp) vmovdqu %ymm0, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) vmovdqu %ymm6, 224(%rsp) vmovdqu %ymm3, 256(%rsp) vmovdqu %ymm4, 288(%rsp) movq glob_data + 6200(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) movq glob_data + 6264(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 64(%rax) movq glob_data + 6272(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 72(%rax) movq glob_data + 6280(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 80(%rax) movq glob_data + 6288(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 88(%rax) movq glob_data + 6296(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 96(%rax) movq glob_data + 6304(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 104(%rax) movq glob_data + 6312(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 112(%rax) movq glob_data + 6320(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 120(%rax) movq glob_data + 6328(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 128(%rax) movq glob_data + 6336(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 136(%rax) movq glob_data + 6344(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 144(%rax) movq glob_data + 6352(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 152(%rax) movq glob_data + 6360(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 160(%rax) leaq 656(%rsp), %rax leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 L__crypto_kem_keypair_derand_jazz$56: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm3, %ymm7 vpxor %ymm4, %ymm6, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm5, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm5, %ymm5 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm6, %ymm6 vpsllvq 96(%rsi), %ymm6, %ymm7 vpsrlvq 96(%rdi), %ymm6, %ymm6 vpor %ymm7, %ymm6, %ymm10 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm6 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm6, %ymm3, %ymm3 vpxor %ymm9, %ymm4, %ymm4 vpermq $-115, %ymm1, %ymm6 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm4, %ymm1 vpsrlvq 160(%rdi), %ymm4, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm3, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm3 vpblendd $12, %ymm7, %ymm6, %ymm4 vpblendd $12, %ymm6, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm3, %ymm3 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm3, %ymm3 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm3, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm4 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm6, %ymm12 vpxor %ymm6, %ymm1, %ymm3 vpblendd $48, %ymm6, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm5, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm5, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm6, %ymm13, %ymm13 vpblendd $-64, %ymm6, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm3, %ymm2 vpermq $-115, %ymm4, %ymm3 vpermq $114, %ymm12, %ymm4 vpblendd $12, %ymm6, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm6, %ymm9, %ymm6 vpandn %ymm6, %ymm0, %ymm6 vpxor %ymm13, %ymm5, %ymm5 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm6, %ymm6 vpxor (%rcx,%rdx), %ymm5, %ymm5 addq $32, %rdx decq %r8 jne L__crypto_kem_keypair_derand_jazz$56 vmovdqu %ymm5, 96(%rsp) vmovdqu %ymm0, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) vmovdqu %ymm6, 224(%rsp) vmovdqu %ymm3, 256(%rsp) vmovdqu %ymm4, 288(%rsp) movq glob_data + 6200(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) movq glob_data + 6264(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 64(%rax) movq glob_data + 6272(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 72(%rax) movq glob_data + 6280(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 80(%rax) movq glob_data + 6288(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 88(%rax) movq glob_data + 6296(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 96(%rax) movq glob_data + 6304(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 104(%rax) movq glob_data + 6312(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 112(%rax) movq glob_data + 6320(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 120(%rax) movq glob_data + 6328(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 128(%rax) movq glob_data + 6336(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 136(%rax) movq glob_data + 6344(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 144(%rax) movq glob_data + 6352(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 152(%rax) movq glob_data + 6360(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 160(%rax) vmovdqu %ymm5, 96(%rsp) vmovdqu %ymm0, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) vmovdqu %ymm6, 224(%rsp) vmovdqu %ymm3, 256(%rsp) vmovdqu %ymm4, 288(%rsp) leaq 12384(%rsp), %rbx leaq 320(%rsp), %rbp leaq L__crypto_kem_keypair_derand_jazz$55(%rip), %r11 jmp L_rej_uniform_avx$1 L__crypto_kem_keypair_derand_jazz$55: cmpq $255, %r13 setbe %al vmovdqu 96(%rsp), %ymm6 vmovdqu 128(%rsp), %ymm0 vmovdqu 160(%rsp), %ymm1 vmovdqu 192(%rsp), %ymm2 vmovdqu 224(%rsp), %ymm3 vmovdqu 256(%rsp), %ymm4 vmovdqu 288(%rsp), %ymm5 jmp L__crypto_kem_keypair_derand_jazz$47 L__crypto_kem_keypair_derand_jazz$48: leaq 320(%rsp), %rax leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 L__crypto_kem_keypair_derand_jazz$54: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm4, %ymm7 vpxor %ymm5, %ymm3, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 96(%rsi), %ymm3, %ymm7 vpsrlvq 96(%rdi), %ymm3, %ymm3 vpor %ymm7, %ymm3, %ymm10 vpxor %ymm9, %ymm4, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm4 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm4, %ymm3, %ymm4 vpxor %ymm9, %ymm5, %ymm5 vpermq $-115, %ymm1, %ymm3 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm5, %ymm1 vpsrlvq 160(%rdi), %ymm5, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm4, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm3, %ymm5 vpblendd $12, %ymm3, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm4, %ymm4 vpblendd $48, %ymm10, %ymm5, %ymm5 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm9, %ymm5, %ymm5 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm4, %ymm1, %ymm1 vpandn %ymm11, %ymm5, %ymm5 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm3, %ymm12 vpxor %ymm3, %ymm1, %ymm4 vpblendd $48, %ymm3, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm5, %ymm5 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm6, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm13, %ymm13 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm4, %ymm2 vpermq $-115, %ymm5, %ymm4 vpermq $114, %ymm12, %ymm5 vpblendd $12, %ymm3, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm3, %ymm9, %ymm3 vpandn %ymm3, %ymm0, %ymm3 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm3, %ymm3 vpxor (%rcx,%rdx), %ymm6, %ymm6 addq $32, %rdx decq %r8 jne L__crypto_kem_keypair_derand_jazz$54 vmovdqu %ymm6, 96(%rsp) vmovdqu %ymm0, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) vmovdqu %ymm3, 224(%rsp) vmovdqu %ymm4, 256(%rsp) vmovdqu %ymm5, 288(%rsp) movq glob_data + 6200(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) movq glob_data + 6264(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 64(%rax) movq glob_data + 6272(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 72(%rax) movq glob_data + 6280(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 80(%rax) movq glob_data + 6288(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 88(%rax) movq glob_data + 6296(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 96(%rax) movq glob_data + 6304(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 104(%rax) movq glob_data + 6312(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 112(%rax) movq glob_data + 6320(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 120(%rax) movq glob_data + 6328(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 128(%rax) movq glob_data + 6336(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 136(%rax) movq glob_data + 6344(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 144(%rax) movq glob_data + 6352(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 152(%rax) movq glob_data + 6360(%rip), %rcx movq 96(%rsp,%rcx,8), %rcx movq %rcx, 160(%rax) leaq 12384(%rsp), %rax leaq 320(%rsp), %rcx movq $0, %rdx cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %dil testb %dil, %sil jmp L__crypto_kem_keypair_derand_jazz$49 L__crypto_kem_keypair_derand_jazz$50: movzbw (%rcx,%rdx), %si incq %rdx movzbw (%rcx,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw (%rcx,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb L__crypto_kem_keypair_derand_jazz$53 movw %si, (%rax,%r13,2) incq %r13 L__crypto_kem_keypair_derand_jazz$53: cmpq $256, %r13 jnb L__crypto_kem_keypair_derand_jazz$51 cmpw $3329, %r8w jnb L__crypto_kem_keypair_derand_jazz$51 movw %r8w, (%rax,%r13,2) incq %r13 L__crypto_kem_keypair_derand_jazz$52: L__crypto_kem_keypair_derand_jazz$51: cmpq $255, %r13 setbe %sil cmpq $165, %rdx setbe %dil testb %dil, %sil L__crypto_kem_keypair_derand_jazz$49: jne L__crypto_kem_keypair_derand_jazz$50 cmpq $255, %r13 setbe %al L__crypto_kem_keypair_derand_jazz$47: cmpb $0, %al jne L__crypto_kem_keypair_derand_jazz$48 leaq 8288(%rsp), %rax leaq L__crypto_kem_keypair_derand_jazz$46(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_keypair_derand_jazz$46: leaq 8800(%rsp), %rax leaq L__crypto_kem_keypair_derand_jazz$45(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_keypair_derand_jazz$45: leaq 9312(%rsp), %rax leaq L__crypto_kem_keypair_derand_jazz$44(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_keypair_derand_jazz$44: leaq 9824(%rsp), %rax leaq L__crypto_kem_keypair_derand_jazz$43(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_keypair_derand_jazz$43: leaq 10336(%rsp), %rax leaq L__crypto_kem_keypair_derand_jazz$42(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_keypair_derand_jazz$42: leaq 10848(%rsp), %rax leaq L__crypto_kem_keypair_derand_jazz$41(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_keypair_derand_jazz$41: leaq 11360(%rsp), %rax leaq L__crypto_kem_keypair_derand_jazz$40(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_keypair_derand_jazz$40: leaq 11872(%rsp), %rax leaq L__crypto_kem_keypair_derand_jazz$39(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_keypair_derand_jazz$39: leaq 12384(%rsp), %rax leaq L__crypto_kem_keypair_derand_jazz$38(%rip), %rcx jmp L_nttunpack$1 L__crypto_kem_keypair_derand_jazz$38: movb $0, %cl leaq 3680(%rsp), %rax leaq 4192(%rsp), %rdi leaq 4704(%rsp), %r8 leaq 5216(%rsp), %r9 leaq 32(%rsp), %r10 leaq -1472(%rsp), %rsp leaq L__crypto_kem_keypair_derand_jazz$37(%rip), %rdx movq %rdx, 1464(%rsp) jmp L_poly_getnoise_eta1_4x$1 L__crypto_kem_keypair_derand_jazz$37: leaq 1472(%rsp), %rsp movb $4, %cl leaq 5728(%rsp), %rax leaq 6240(%rsp), %rdi leaq 6752(%rsp), %r8 leaq 7264(%rsp), %r9 leaq 32(%rsp), %r10 leaq -1472(%rsp), %rsp leaq L__crypto_kem_keypair_derand_jazz$36(%rip), %rdx movq %rdx, 1464(%rsp) jmp L_poly_getnoise_eta1_4x$1 L__crypto_kem_keypair_derand_jazz$36: leaq 1472(%rsp), %rsp leaq 3680(%rsp), %rcx leaq L__crypto_kem_keypair_derand_jazz$35(%rip), %rdi jmp L_poly_ntt$1 L__crypto_kem_keypair_derand_jazz$35: leaq 4192(%rsp), %rcx leaq L__crypto_kem_keypair_derand_jazz$34(%rip), %rdi jmp L_poly_ntt$1 L__crypto_kem_keypair_derand_jazz$34: leaq 4704(%rsp), %rcx leaq L__crypto_kem_keypair_derand_jazz$33(%rip), %rdi jmp L_poly_ntt$1 L__crypto_kem_keypair_derand_jazz$33: leaq 5216(%rsp), %rcx leaq L__crypto_kem_keypair_derand_jazz$32(%rip), %rdi jmp L_poly_ntt$1 L__crypto_kem_keypair_derand_jazz$32: leaq 5728(%rsp), %rcx leaq L__crypto_kem_keypair_derand_jazz$31(%rip), %rdi jmp L_poly_ntt$1 L__crypto_kem_keypair_derand_jazz$31: leaq 6240(%rsp), %rcx leaq L__crypto_kem_keypair_derand_jazz$30(%rip), %rdi jmp L_poly_ntt$1 L__crypto_kem_keypair_derand_jazz$30: leaq 6752(%rsp), %rcx leaq 8288(%rsp), %rsi leaq 3680(%rsp), %rdi leaq L__crypto_kem_keypair_derand_jazz$29(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_keypair_derand_jazz$29: leaq 2368(%rsp), %rcx leaq 8800(%rsp), %rsi leaq 4192(%rsp), %rdi leaq L__crypto_kem_keypair_derand_jazz$28(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_keypair_derand_jazz$28: leaq 6752(%rsp), %rcx leaq 2368(%rsp), %rsi leaq L__crypto_kem_keypair_derand_jazz$27(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_keypair_derand_jazz$27: leaq 2368(%rsp), %rcx leaq 9312(%rsp), %rsi leaq 4704(%rsp), %rdi leaq L__crypto_kem_keypair_derand_jazz$26(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_keypair_derand_jazz$26: leaq 6752(%rsp), %rcx leaq 2368(%rsp), %rsi leaq L__crypto_kem_keypair_derand_jazz$25(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_keypair_derand_jazz$25: leaq 6752(%rsp), %rax leaq L__crypto_kem_keypair_derand_jazz$24(%rip), %rdx jmp L_poly_frommont$1 L__crypto_kem_keypair_derand_jazz$24: leaq 7264(%rsp), %rcx leaq 9824(%rsp), %rsi leaq 3680(%rsp), %rdi leaq L__crypto_kem_keypair_derand_jazz$23(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_keypair_derand_jazz$23: leaq 2368(%rsp), %rcx leaq 10336(%rsp), %rsi leaq 4192(%rsp), %rdi leaq L__crypto_kem_keypair_derand_jazz$22(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_keypair_derand_jazz$22: leaq 7264(%rsp), %rcx leaq 2368(%rsp), %rsi leaq L__crypto_kem_keypair_derand_jazz$21(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_keypair_derand_jazz$21: leaq 2368(%rsp), %rcx leaq 10848(%rsp), %rsi leaq 4704(%rsp), %rdi leaq L__crypto_kem_keypair_derand_jazz$20(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_keypair_derand_jazz$20: leaq 7264(%rsp), %rcx leaq 2368(%rsp), %rsi leaq L__crypto_kem_keypair_derand_jazz$19(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_keypair_derand_jazz$19: leaq 7264(%rsp), %rax leaq L__crypto_kem_keypair_derand_jazz$18(%rip), %rdx jmp L_poly_frommont$1 L__crypto_kem_keypair_derand_jazz$18: leaq 7776(%rsp), %rcx leaq 11360(%rsp), %rsi leaq 3680(%rsp), %rdi leaq L__crypto_kem_keypair_derand_jazz$17(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_keypair_derand_jazz$17: leaq 2368(%rsp), %rcx leaq 11872(%rsp), %rsi leaq 4192(%rsp), %rdi leaq L__crypto_kem_keypair_derand_jazz$16(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_keypair_derand_jazz$16: leaq 7776(%rsp), %rcx leaq 2368(%rsp), %rsi leaq L__crypto_kem_keypair_derand_jazz$15(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_keypair_derand_jazz$15: leaq 2368(%rsp), %rcx leaq 12384(%rsp), %rsi leaq 4704(%rsp), %rdi leaq L__crypto_kem_keypair_derand_jazz$14(%rip), %r8 jmp L_poly_basemul$1 L__crypto_kem_keypair_derand_jazz$14: leaq 7776(%rsp), %rcx leaq 2368(%rsp), %rsi leaq L__crypto_kem_keypair_derand_jazz$13(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_keypair_derand_jazz$13: leaq 7776(%rsp), %rax leaq L__crypto_kem_keypair_derand_jazz$12(%rip), %rdx jmp L_poly_frommont$1 L__crypto_kem_keypair_derand_jazz$12: leaq 6752(%rsp), %rcx leaq 5216(%rsp), %rsi leaq L__crypto_kem_keypair_derand_jazz$11(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_keypair_derand_jazz$11: leaq 7264(%rsp), %rcx leaq 5728(%rsp), %rsi leaq L__crypto_kem_keypair_derand_jazz$10(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_keypair_derand_jazz$10: leaq 7776(%rsp), %rcx leaq 6240(%rsp), %rsi leaq L__crypto_kem_keypair_derand_jazz$9(%rip), %rdi jmp L_poly_add2$1 L__crypto_kem_keypair_derand_jazz$9: leaq 6752(%rsp), %rax vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu glob_data + 384(%rip), %ymm1 vmovdqu (%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, (%rax) vmovdqu 32(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 32(%rax) vmovdqu 64(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 64(%rax) vmovdqu 96(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 96(%rax) vmovdqu 128(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 128(%rax) vmovdqu 160(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 160(%rax) vmovdqu 192(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 192(%rax) vmovdqu 224(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 224(%rax) vmovdqu 256(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 256(%rax) vmovdqu 288(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 288(%rax) vmovdqu 320(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 320(%rax) vmovdqu 352(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 352(%rax) vmovdqu 384(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 384(%rax) vmovdqu 416(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 416(%rax) vmovdqu 448(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 448(%rax) vmovdqu 480(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm1 vpsraw $10, %ymm1, %ymm1 vpmullw %ymm0, %ymm1, %ymm0 vpsubw %ymm0, %ymm2, %ymm0 vmovdqu %ymm0, 480(%rax) leaq 7264(%rsp), %rax vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu glob_data + 384(%rip), %ymm1 vmovdqu (%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, (%rax) vmovdqu 32(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 32(%rax) vmovdqu 64(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 64(%rax) vmovdqu 96(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 96(%rax) vmovdqu 128(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 128(%rax) vmovdqu 160(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 160(%rax) vmovdqu 192(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 192(%rax) vmovdqu 224(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 224(%rax) vmovdqu 256(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 256(%rax) vmovdqu 288(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 288(%rax) vmovdqu 320(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 320(%rax) vmovdqu 352(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 352(%rax) vmovdqu 384(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 384(%rax) vmovdqu 416(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 416(%rax) vmovdqu 448(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 448(%rax) vmovdqu 480(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm1 vpsraw $10, %ymm1, %ymm1 vpmullw %ymm0, %ymm1, %ymm0 vpsubw %ymm0, %ymm2, %ymm0 vmovdqu %ymm0, 480(%rax) leaq 7776(%rsp), %rax vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu glob_data + 384(%rip), %ymm1 vmovdqu (%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, (%rax) vmovdqu 32(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 32(%rax) vmovdqu 64(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 64(%rax) vmovdqu 96(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 96(%rax) vmovdqu 128(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 128(%rax) vmovdqu 160(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 160(%rax) vmovdqu 192(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 192(%rax) vmovdqu 224(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 224(%rax) vmovdqu 256(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 256(%rax) vmovdqu 288(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 288(%rax) vmovdqu 320(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 320(%rax) vmovdqu 352(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 352(%rax) vmovdqu 384(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 384(%rax) vmovdqu 416(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 416(%rax) vmovdqu 448(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm2, %ymm2 vmovdqu %ymm2, 448(%rax) vmovdqu 480(%rax), %ymm2 vpmulhw %ymm1, %ymm2, %ymm1 vpsraw $10, %ymm1, %ymm1 vpmullw %ymm0, %ymm1, %ymm0 vpsubw %ymm0, %ymm2, %ymm0 vmovdqu %ymm0, 480(%rax) movq 12920(%rsp), %rax movq 12928(%rsp), %rcx leaq 3680(%rsp), %rdx leaq L__crypto_kem_keypair_derand_jazz$8(%rip), %rdi jmp L_poly_tobytes$1 L__crypto_kem_keypair_derand_jazz$8: addq $384, %rcx leaq 4192(%rsp), %rdx leaq L__crypto_kem_keypair_derand_jazz$7(%rip), %rdi jmp L_poly_tobytes$1 L__crypto_kem_keypair_derand_jazz$7: addq $384, %rcx leaq 4704(%rsp), %rdx leaq L__crypto_kem_keypair_derand_jazz$6(%rip), %rdi jmp L_poly_tobytes$1 L__crypto_kem_keypair_derand_jazz$6: movq %rax, %rcx leaq 6752(%rsp), %rdx leaq L__crypto_kem_keypair_derand_jazz$5(%rip), %rdi jmp L_poly_tobytes$1 L__crypto_kem_keypair_derand_jazz$5: addq $384, %rcx leaq 7264(%rsp), %rdx leaq L__crypto_kem_keypair_derand_jazz$4(%rip), %rdi jmp L_poly_tobytes$1 L__crypto_kem_keypair_derand_jazz$4: addq $384, %rcx leaq 7776(%rsp), %rdx leaq L__crypto_kem_keypair_derand_jazz$3(%rip), %rdi jmp L_poly_tobytes$1 L__crypto_kem_keypair_derand_jazz$3: addq $1152, %rax movq (%rsp), %rcx movq %rcx, (%rax) addq $8, %rax movq 8(%rsp), %rcx movq %rcx, (%rax) addq $8, %rax movq 16(%rsp), %rcx movq %rcx, (%rax) addq $8, %rax movq 24(%rsp), %rcx movq %rcx, (%rax) movq 12912(%rsp), %rax addq $1152, %rax movq 12904(%rsp), %rcx movq (%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 8(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 16(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 24(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 32(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 40(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 48(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 56(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 64(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 72(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 80(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 88(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 96(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 104(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 112(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 120(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 128(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 136(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 144(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 152(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 160(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 168(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 176(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 184(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 192(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 200(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 208(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 216(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 224(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 232(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 240(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 248(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 256(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 264(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 272(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 280(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 288(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 296(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 304(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 312(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 320(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 328(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 336(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 344(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 352(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 360(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 368(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 376(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 384(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 392(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 400(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 408(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 416(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 424(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 432(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 440(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 448(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 456(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 464(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 472(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 480(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 488(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 496(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 504(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 512(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 520(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 528(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 536(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 544(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 552(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 560(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 568(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 576(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 584(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 592(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 600(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 608(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 616(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 624(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 632(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 640(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 648(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 656(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 664(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 672(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 680(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 688(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 696(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 704(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 712(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 720(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 728(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 736(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 744(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 752(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 760(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 768(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 776(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 784(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 792(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 800(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 808(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 816(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 824(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 832(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 840(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 848(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 856(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 864(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 872(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 880(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 888(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 896(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 904(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 912(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 920(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 928(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 936(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 944(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 952(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 960(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 968(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 976(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 984(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 992(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1000(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1008(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1016(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1024(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1032(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1040(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1048(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1056(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1064(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1072(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1080(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1088(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1096(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1104(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1112(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1120(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1128(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1136(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1144(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1152(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1160(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1168(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1176(%rcx), %rcx movq %rcx, (%rax) addq $8, %rax movq %rax, 12912(%rsp) movq 12904(%rsp), %r8 movq $1184, %rdi movq %rsp, %rax leaq -256(%rsp), %rsp leaq L__crypto_kem_keypair_derand_jazz$2(%rip), %rcx movq %rcx, 224(%rsp) jmp L_sha3_256$1 L__crypto_kem_keypair_derand_jazz$2: leaq 256(%rsp), %rsp movq 12912(%rsp), %rax movq 12896(%rsp), %rcx movq %rsp, %rdx movb (%rdx), %sil movb %sil, (%rax) movb 1(%rdx), %sil movb %sil, 1(%rax) movb 2(%rdx), %sil movb %sil, 2(%rax) movb 3(%rdx), %sil movb %sil, 3(%rax) movb 4(%rdx), %sil movb %sil, 4(%rax) movb 5(%rdx), %sil movb %sil, 5(%rax) movb 6(%rdx), %sil movb %sil, 6(%rax) movb 7(%rdx), %sil movb %sil, 7(%rax) movb 8(%rdx), %sil movb %sil, 8(%rax) movb 9(%rdx), %sil movb %sil, 9(%rax) movb 10(%rdx), %sil movb %sil, 10(%rax) movb 11(%rdx), %sil movb %sil, 11(%rax) movb 12(%rdx), %sil movb %sil, 12(%rax) movb 13(%rdx), %sil movb %sil, 13(%rax) movb 14(%rdx), %sil movb %sil, 14(%rax) movb 15(%rdx), %sil movb %sil, 15(%rax) movb 16(%rdx), %sil movb %sil, 16(%rax) movb 17(%rdx), %sil movb %sil, 17(%rax) movb 18(%rdx), %sil movb %sil, 18(%rax) movb 19(%rdx), %sil movb %sil, 19(%rax) movb 20(%rdx), %sil movb %sil, 20(%rax) movb 21(%rdx), %sil movb %sil, 21(%rax) movb 22(%rdx), %sil movb %sil, 22(%rax) movb 23(%rdx), %sil movb %sil, 23(%rax) movb 24(%rdx), %sil movb %sil, 24(%rax) movb 25(%rdx), %sil movb %sil, 25(%rax) movb 26(%rdx), %sil movb %sil, 26(%rax) movb 27(%rdx), %sil movb %sil, 27(%rax) movb 28(%rdx), %sil movb %sil, 28(%rax) movb 29(%rdx), %sil movb %sil, 29(%rax) movb 30(%rdx), %sil movb %sil, 30(%rax) movb 31(%rdx), %dl movb %dl, 31(%rax) addq $32, %rax leaq 32(%rcx), %rcx movb (%rcx), %dl movb %dl, (%rax) movb 1(%rcx), %dl movb %dl, 1(%rax) movb 2(%rcx), %dl movb %dl, 2(%rax) movb 3(%rcx), %dl movb %dl, 3(%rax) movb 4(%rcx), %dl movb %dl, 4(%rax) movb 5(%rcx), %dl movb %dl, 5(%rax) movb 6(%rcx), %dl movb %dl, 6(%rax) movb 7(%rcx), %dl movb %dl, 7(%rax) movb 8(%rcx), %dl movb %dl, 8(%rax) movb 9(%rcx), %dl movb %dl, 9(%rax) movb 10(%rcx), %dl movb %dl, 10(%rax) movb 11(%rcx), %dl movb %dl, 11(%rax) movb 12(%rcx), %dl movb %dl, 12(%rax) movb 13(%rcx), %dl movb %dl, 13(%rax) movb 14(%rcx), %dl movb %dl, 14(%rax) movb 15(%rcx), %dl movb %dl, 15(%rax) movb 16(%rcx), %dl movb %dl, 16(%rax) movb 17(%rcx), %dl movb %dl, 17(%rax) movb 18(%rcx), %dl movb %dl, 18(%rax) movb 19(%rcx), %dl movb %dl, 19(%rax) movb 20(%rcx), %dl movb %dl, 20(%rax) movb 21(%rcx), %dl movb %dl, 21(%rax) movb 22(%rcx), %dl movb %dl, 22(%rax) movb 23(%rcx), %dl movb %dl, 23(%rax) movb 24(%rcx), %dl movb %dl, 24(%rax) movb 25(%rcx), %dl movb %dl, 25(%rax) movb 26(%rcx), %dl movb %dl, 26(%rax) movb 27(%rcx), %dl movb %dl, 27(%rax) movb 28(%rcx), %dl movb %dl, 28(%rax) movb 29(%rcx), %dl movb %dl, 29(%rax) movb 30(%rcx), %dl movb %dl, 30(%rax) movb 31(%rcx), %cl movb %cl, 31(%rax) jmp *13000(%rsp) L_rej_uniform_avx$1: leaq glob_data + 4128(%rip), %r10 vmovdqu glob_data + 448(%rip), %ymm0 movq $0, %r13 movq $0, %r12 vpbroadcastb glob_data + 6430(%rip), %ymm1 vpbroadcastw glob_data + 6416(%rip), %ymm2 vmovdqu glob_data + 0(%rip), %ymm3 cmpq $224, %r13 setbe %al cmpq $448, %r12 setbe %cl testb %cl, %al jmp L_rej_uniform_avx$9 L_rej_uniform_avx$10: vpermq $-108, (%rbp,%r12), %ymm4 vpermq $-108, 24(%rbp,%r12), %ymm5 vpshufb %ymm3, %ymm4, %ymm4 vpshufb %ymm3, %ymm5, %ymm5 vpsrlw $4, %ymm4, %ymm6 vpsrlw $4, %ymm5, %ymm7 vpblendw $-86, %ymm6, %ymm4, %ymm4 vpblendw $-86, %ymm7, %ymm5, %ymm5 vpand %ymm2, %ymm4, %ymm4 vpand %ymm2, %ymm5, %ymm5 vpcmpgtw %ymm4, %ymm0, %ymm6 vpcmpgtw %ymm5, %ymm0, %ymm7 vpacksswb %ymm7, %ymm6, %ymm6 vpmovmskb %ymm6, %rax movq %rax, %rcx andq $255, %rcx vmovq (%r10,%rcx,8), %xmm6 movq %rax, %rdx shrq $16, %rdx andq $255, %rdx vmovq (%r10,%rdx,8), %xmm7 movq %rax, %rsi shrq $8, %rsi andq $255, %rsi vmovq (%r10,%rsi,8), %xmm8 shrq $24, %rax andq $255, %rax vmovq (%r10,%rax,8), %xmm9 vinserti128 $1, %xmm7, %ymm6, %ymm6 popcnt %rcx, %rcx popcnt %rdx, %rdx addq %r13, %rcx vinserti128 $1, %xmm9, %ymm8, %ymm7 addq %rcx, %rdx popcnt %rsi, %rsi addq %rdx, %rsi popcnt %rax, %rax addq %rsi, %rax vpaddb %ymm1, %ymm6, %ymm8 vpunpcklbw %ymm8, %ymm6, %ymm6 vpaddb %ymm1, %ymm7, %ymm8 vpunpcklbw %ymm8, %ymm7, %ymm7 vpshufb %ymm6, %ymm4, %ymm4 vpshufb %ymm7, %ymm5, %ymm5 vmovdqu %xmm4, (%rbx,%r13,2) vextracti128 $1, %ymm4, (%rbx,%rcx,2) vmovdqu %xmm5, (%rbx,%rdx,2) vextracti128 $1, %ymm5, (%rbx,%rsi,2) movq %rax, %r13 cmpq $224, %r13 setbe %al addq $48, %r12 cmpq $448, %r12 setbe %cl testb %cl, %al L_rej_uniform_avx$9: jne L_rej_uniform_avx$10 cmpq $248, %r13 setbe %al cmpq $488, %r12 setbe %cl testb %cl, %al movq $21845, %rax jmp L_rej_uniform_avx$7 L_rej_uniform_avx$8: vmovdqu (%rbp,%r12), %xmm4 vpshufb %xmm3, %xmm4, %xmm4 vpsrlw $4, %xmm4, %xmm5 vpblendw $-86, %xmm5, %xmm4, %xmm4 vpand %xmm2, %xmm4, %xmm4 vpcmpgtw %xmm4, %xmm0, %xmm5 vpmovmskb %xmm5, %rcx pext %rax, %rcx, %rcx vmovq (%r10,%rcx,8), %xmm5 popcnt %rcx, %rcx vpaddb %xmm1, %xmm5, %xmm6 vpunpcklbw %xmm6, %xmm5, %xmm5 vpshufb %xmm5, %xmm4, %xmm4 vmovdqu %xmm4, (%rbx,%r13,2) addq %rcx, %r13 addq $12, %r12 cmpq $248, %r13 setbe %cl cmpq $488, %r12 setbe %dl testb %dl, %cl L_rej_uniform_avx$7: jne L_rej_uniform_avx$8 cmpq $255, %r13 setbe %al cmpq $501, %r12 setbe %cl testb %cl, %al jmp L_rej_uniform_avx$2 L_rej_uniform_avx$3: movzbw (%rbp,%r12), %ax incq %r12 movzbw (%rbp,%r12), %dx incq %r12 movw %dx, %cx shlw $8, %dx orw %dx, %ax andw $4095, %ax shrw $4, %cx movzbw (%rbp,%r12), %dx incq %r12 shlw $4, %dx orw %dx, %cx cmpw $3329, %ax jnb L_rej_uniform_avx$6 movw %ax, (%rbx,%r13,2) incq %r13 L_rej_uniform_avx$6: cmpw $3329, %cx jnb L_rej_uniform_avx$4 cmpq $256, %r13 jnb L_rej_uniform_avx$4 movw %cx, (%rbx,%r13,2) incq %r13 L_rej_uniform_avx$5: L_rej_uniform_avx$4: cmpq $255, %r13 setbe %al cmpq $501, %r12 setbe %cl testb %cl, %al L_rej_uniform_avx$2: jne L_rej_uniform_avx$3 jmp *%r11 L_poly_tomsg_1$1: leaq L_poly_tomsg_1$2(%rip), %r8 jmp L_poly_csubq$1 L_poly_tomsg_1$2: leaq glob_data + 224(%rip), %rsi vmovdqu (%rsi), %ymm0 leaq glob_data + 192(%rip), %rsi vmovdqu (%rsi), %ymm1 vmovdqu (%rcx), %ymm2 vmovdqu 32(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm3 vpsraw $15, %ymm2, %ymm4 vpsraw $15, %ymm3, %ymm5 vpxor %ymm4, %ymm2, %ymm2 vpxor %ymm5, %ymm3, %ymm3 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm3, %ymm3 vpacksswb %ymm3, %ymm2, %ymm2 vpermq $-40, %ymm2, %ymm2 vpmovmskb %ymm2, %esi movl %esi, (%rax) vmovdqu 64(%rcx), %ymm2 vmovdqu 96(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm3 vpsraw $15, %ymm2, %ymm4 vpsraw $15, %ymm3, %ymm5 vpxor %ymm4, %ymm2, %ymm2 vpxor %ymm5, %ymm3, %ymm3 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm3, %ymm3 vpacksswb %ymm3, %ymm2, %ymm2 vpermq $-40, %ymm2, %ymm2 vpmovmskb %ymm2, %esi movl %esi, 4(%rax) vmovdqu 128(%rcx), %ymm2 vmovdqu 160(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm3 vpsraw $15, %ymm2, %ymm4 vpsraw $15, %ymm3, %ymm5 vpxor %ymm4, %ymm2, %ymm2 vpxor %ymm5, %ymm3, %ymm3 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm3, %ymm3 vpacksswb %ymm3, %ymm2, %ymm2 vpermq $-40, %ymm2, %ymm2 vpmovmskb %ymm2, %esi movl %esi, 8(%rax) vmovdqu 192(%rcx), %ymm2 vmovdqu 224(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm3 vpsraw $15, %ymm2, %ymm4 vpsraw $15, %ymm3, %ymm5 vpxor %ymm4, %ymm2, %ymm2 vpxor %ymm5, %ymm3, %ymm3 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm3, %ymm3 vpacksswb %ymm3, %ymm2, %ymm2 vpermq $-40, %ymm2, %ymm2 vpmovmskb %ymm2, %esi movl %esi, 12(%rax) vmovdqu 256(%rcx), %ymm2 vmovdqu 288(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm3 vpsraw $15, %ymm2, %ymm4 vpsraw $15, %ymm3, %ymm5 vpxor %ymm4, %ymm2, %ymm2 vpxor %ymm5, %ymm3, %ymm3 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm3, %ymm3 vpacksswb %ymm3, %ymm2, %ymm2 vpermq $-40, %ymm2, %ymm2 vpmovmskb %ymm2, %esi movl %esi, 16(%rax) vmovdqu 320(%rcx), %ymm2 vmovdqu 352(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm3 vpsraw $15, %ymm2, %ymm4 vpsraw $15, %ymm3, %ymm5 vpxor %ymm4, %ymm2, %ymm2 vpxor %ymm5, %ymm3, %ymm3 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm3, %ymm3 vpacksswb %ymm3, %ymm2, %ymm2 vpermq $-40, %ymm2, %ymm2 vpmovmskb %ymm2, %esi movl %esi, 20(%rax) vmovdqu 384(%rcx), %ymm2 vmovdqu 416(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm3 vpsraw $15, %ymm2, %ymm4 vpsraw $15, %ymm3, %ymm5 vpxor %ymm4, %ymm2, %ymm2 vpxor %ymm5, %ymm3, %ymm3 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm3, %ymm3 vpacksswb %ymm3, %ymm2, %ymm2 vpermq $-40, %ymm2, %ymm2 vpmovmskb %ymm2, %esi movl %esi, 24(%rax) vmovdqu 448(%rcx), %ymm2 vmovdqu 480(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm0 vpsraw $15, %ymm2, %ymm3 vpsraw $15, %ymm0, %ymm4 vpxor %ymm3, %ymm2, %ymm2 vpxor %ymm4, %ymm0, %ymm0 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm0, %ymm0 vpacksswb %ymm0, %ymm2, %ymm0 vpermq $-40, %ymm0, %ymm0 vpmovmskb %ymm0, %ecx movl %ecx, 28(%rax) jmp *%rdi L_poly_tomsg$1: leaq L_poly_tomsg$2(%rip), %r8 jmp L_poly_csubq$1 L_poly_tomsg$2: leaq glob_data + 224(%rip), %rax vmovdqu (%rax), %ymm0 leaq glob_data + 192(%rip), %rax vmovdqu (%rax), %ymm1 vmovdqu (%rcx), %ymm2 vmovdqu 32(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm3 vpsraw $15, %ymm2, %ymm4 vpsraw $15, %ymm3, %ymm5 vpxor %ymm4, %ymm2, %ymm2 vpxor %ymm5, %ymm3, %ymm3 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm3, %ymm3 vpacksswb %ymm3, %ymm2, %ymm2 vpermq $-40, %ymm2, %ymm2 vpmovmskb %ymm2, %eax movl %eax, (%rdx) vmovdqu 64(%rcx), %ymm2 vmovdqu 96(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm3 vpsraw $15, %ymm2, %ymm4 vpsraw $15, %ymm3, %ymm5 vpxor %ymm4, %ymm2, %ymm2 vpxor %ymm5, %ymm3, %ymm3 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm3, %ymm3 vpacksswb %ymm3, %ymm2, %ymm2 vpermq $-40, %ymm2, %ymm2 vpmovmskb %ymm2, %eax movl %eax, 4(%rdx) vmovdqu 128(%rcx), %ymm2 vmovdqu 160(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm3 vpsraw $15, %ymm2, %ymm4 vpsraw $15, %ymm3, %ymm5 vpxor %ymm4, %ymm2, %ymm2 vpxor %ymm5, %ymm3, %ymm3 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm3, %ymm3 vpacksswb %ymm3, %ymm2, %ymm2 vpermq $-40, %ymm2, %ymm2 vpmovmskb %ymm2, %eax movl %eax, 8(%rdx) vmovdqu 192(%rcx), %ymm2 vmovdqu 224(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm3 vpsraw $15, %ymm2, %ymm4 vpsraw $15, %ymm3, %ymm5 vpxor %ymm4, %ymm2, %ymm2 vpxor %ymm5, %ymm3, %ymm3 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm3, %ymm3 vpacksswb %ymm3, %ymm2, %ymm2 vpermq $-40, %ymm2, %ymm2 vpmovmskb %ymm2, %eax movl %eax, 12(%rdx) vmovdqu 256(%rcx), %ymm2 vmovdqu 288(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm3 vpsraw $15, %ymm2, %ymm4 vpsraw $15, %ymm3, %ymm5 vpxor %ymm4, %ymm2, %ymm2 vpxor %ymm5, %ymm3, %ymm3 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm3, %ymm3 vpacksswb %ymm3, %ymm2, %ymm2 vpermq $-40, %ymm2, %ymm2 vpmovmskb %ymm2, %eax movl %eax, 16(%rdx) vmovdqu 320(%rcx), %ymm2 vmovdqu 352(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm3 vpsraw $15, %ymm2, %ymm4 vpsraw $15, %ymm3, %ymm5 vpxor %ymm4, %ymm2, %ymm2 vpxor %ymm5, %ymm3, %ymm3 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm3, %ymm3 vpacksswb %ymm3, %ymm2, %ymm2 vpermq $-40, %ymm2, %ymm2 vpmovmskb %ymm2, %eax movl %eax, 20(%rdx) vmovdqu 384(%rcx), %ymm2 vmovdqu 416(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm3 vpsraw $15, %ymm2, %ymm4 vpsraw $15, %ymm3, %ymm5 vpxor %ymm4, %ymm2, %ymm2 vpxor %ymm5, %ymm3, %ymm3 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm3, %ymm3 vpacksswb %ymm3, %ymm2, %ymm2 vpermq $-40, %ymm2, %ymm2 vpmovmskb %ymm2, %eax movl %eax, 24(%rdx) vmovdqu 448(%rcx), %ymm2 vmovdqu 480(%rcx), %ymm3 vpsubw %ymm2, %ymm0, %ymm2 vpsubw %ymm3, %ymm0, %ymm0 vpsraw $15, %ymm2, %ymm3 vpsraw $15, %ymm0, %ymm4 vpxor %ymm3, %ymm2, %ymm2 vpxor %ymm4, %ymm0, %ymm0 vpsubw %ymm1, %ymm2, %ymm2 vpsubw %ymm1, %ymm0, %ymm0 vpacksswb %ymm0, %ymm2, %ymm0 vpermq $-40, %ymm0, %ymm0 vpmovmskb %ymm0, %eax movl %eax, 28(%rdx) jmp *%rsi L_poly_tobytes$1: leaq glob_data + 448(%rip), %rsi vmovdqu (%rsi), %ymm0 vmovdqu (%rdx), %ymm7 vmovdqu 32(%rdx), %ymm8 vmovdqu 64(%rdx), %ymm1 vmovdqu 96(%rdx), %ymm2 vmovdqu 128(%rdx), %ymm3 vmovdqu 160(%rdx), %ymm4 vmovdqu 192(%rdx), %ymm5 vmovdqu 224(%rdx), %ymm6 vpsubw %ymm0, %ymm7, %ymm7 vpsraw $15, %ymm7, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm7, %ymm9, %ymm7 vpsubw %ymm0, %ymm8, %ymm8 vpsraw $15, %ymm8, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm8, %ymm9, %ymm8 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm1, %ymm9, %ymm1 vpsubw %ymm0, %ymm2, %ymm2 vpsraw $15, %ymm2, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm2, %ymm9, %ymm2 vpsubw %ymm0, %ymm3, %ymm3 vpsraw $15, %ymm3, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm3, %ymm9, %ymm3 vpsubw %ymm0, %ymm4, %ymm4 vpsraw $15, %ymm4, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm4, %ymm9, %ymm4 vpsubw %ymm0, %ymm5, %ymm5 vpsraw $15, %ymm5, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm5, %ymm9, %ymm5 vpsubw %ymm0, %ymm6, %ymm6 vpsraw $15, %ymm6, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm6, %ymm9, %ymm6 vpsllw $12, %ymm8, %ymm9 vpor %ymm7, %ymm9, %ymm7 vpsrlw $4, %ymm8, %ymm8 vpsllw $8, %ymm1, %ymm9 vpor %ymm9, %ymm8, %ymm8 vpsrlw $8, %ymm1, %ymm1 vpsllw $4, %ymm2, %ymm2 vpor %ymm2, %ymm1, %ymm1 vpsllw $12, %ymm4, %ymm2 vpor %ymm3, %ymm2, %ymm2 vpsrlw $4, %ymm4, %ymm3 vpsllw $8, %ymm5, %ymm4 vpor %ymm4, %ymm3, %ymm3 vpsrlw $8, %ymm5, %ymm4 vpsllw $4, %ymm6, %ymm5 vpor %ymm5, %ymm4, %ymm4 vpslld $16, %ymm8, %ymm5 vpblendw $-86, %ymm5, %ymm7, %ymm5 vpsrld $16, %ymm7, %ymm6 vpblendw $-86, %ymm8, %ymm6, %ymm6 vpslld $16, %ymm2, %ymm7 vpblendw $-86, %ymm7, %ymm1, %ymm7 vpsrld $16, %ymm1, %ymm1 vpblendw $-86, %ymm2, %ymm1, %ymm1 vpslld $16, %ymm4, %ymm2 vpblendw $-86, %ymm2, %ymm3, %ymm8 vpsrld $16, %ymm3, %ymm2 vpblendw $-86, %ymm4, %ymm2, %ymm2 vmovsldup %ymm7, %ymm3 vpblendd $-86, %ymm3, %ymm5, %ymm3 vpsrlq $32, %ymm5, %ymm4 vpblendd $-86, %ymm7, %ymm4, %ymm4 vmovsldup %ymm6, %ymm5 vpblendd $-86, %ymm5, %ymm8, %ymm5 vpsrlq $32, %ymm8, %ymm7 vpblendd $-86, %ymm6, %ymm7, %ymm6 vmovsldup %ymm2, %ymm7 vpblendd $-86, %ymm7, %ymm1, %ymm7 vpsrlq $32, %ymm1, %ymm1 vpblendd $-86, %ymm2, %ymm1, %ymm1 vpunpcklqdq %ymm5, %ymm3, %ymm2 vpunpckhqdq %ymm5, %ymm3, %ymm3 vpunpcklqdq %ymm4, %ymm7, %ymm5 vpunpckhqdq %ymm4, %ymm7, %ymm4 vpunpcklqdq %ymm1, %ymm6, %ymm7 vpunpckhqdq %ymm1, %ymm6, %ymm1 vperm2i128 $32, %ymm5, %ymm2, %ymm6 vperm2i128 $49, %ymm5, %ymm2, %ymm2 vperm2i128 $32, %ymm3, %ymm7, %ymm5 vperm2i128 $49, %ymm3, %ymm7, %ymm3 vperm2i128 $32, %ymm1, %ymm4, %ymm7 vperm2i128 $49, %ymm1, %ymm4, %ymm1 vmovdqu %ymm6, (%rcx) vmovdqu %ymm5, 32(%rcx) vmovdqu %ymm7, 64(%rcx) vmovdqu %ymm2, 96(%rcx) vmovdqu %ymm3, 128(%rcx) vmovdqu %ymm1, 160(%rcx) vmovdqu 256(%rdx), %ymm7 vmovdqu 288(%rdx), %ymm8 vmovdqu 320(%rdx), %ymm1 vmovdqu 352(%rdx), %ymm2 vmovdqu 384(%rdx), %ymm3 vmovdqu 416(%rdx), %ymm4 vmovdqu 448(%rdx), %ymm5 vmovdqu 480(%rdx), %ymm6 vpsubw %ymm0, %ymm7, %ymm7 vpsraw $15, %ymm7, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm7, %ymm9, %ymm7 vpsubw %ymm0, %ymm8, %ymm8 vpsraw $15, %ymm8, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm8, %ymm9, %ymm8 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm1, %ymm9, %ymm1 vpsubw %ymm0, %ymm2, %ymm2 vpsraw $15, %ymm2, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm2, %ymm9, %ymm2 vpsubw %ymm0, %ymm3, %ymm3 vpsraw $15, %ymm3, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm3, %ymm9, %ymm3 vpsubw %ymm0, %ymm4, %ymm4 vpsraw $15, %ymm4, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm4, %ymm9, %ymm4 vpsubw %ymm0, %ymm5, %ymm5 vpsraw $15, %ymm5, %ymm9 vpand %ymm0, %ymm9, %ymm9 vpaddw %ymm5, %ymm9, %ymm5 vpsubw %ymm0, %ymm6, %ymm6 vpsraw $15, %ymm6, %ymm9 vpand %ymm0, %ymm9, %ymm0 vpaddw %ymm6, %ymm0, %ymm0 vpsllw $12, %ymm8, %ymm6 vpor %ymm7, %ymm6, %ymm6 vpsrlw $4, %ymm8, %ymm7 vpsllw $8, %ymm1, %ymm8 vpor %ymm8, %ymm7, %ymm7 vpsrlw $8, %ymm1, %ymm1 vpsllw $4, %ymm2, %ymm2 vpor %ymm2, %ymm1, %ymm1 vpsllw $12, %ymm4, %ymm2 vpor %ymm3, %ymm2, %ymm2 vpsrlw $4, %ymm4, %ymm3 vpsllw $8, %ymm5, %ymm4 vpor %ymm4, %ymm3, %ymm3 vpsrlw $8, %ymm5, %ymm4 vpsllw $4, %ymm0, %ymm0 vpor %ymm0, %ymm4, %ymm0 vpslld $16, %ymm7, %ymm4 vpblendw $-86, %ymm4, %ymm6, %ymm4 vpsrld $16, %ymm6, %ymm5 vpblendw $-86, %ymm7, %ymm5, %ymm5 vpslld $16, %ymm2, %ymm6 vpblendw $-86, %ymm6, %ymm1, %ymm6 vpsrld $16, %ymm1, %ymm1 vpblendw $-86, %ymm2, %ymm1, %ymm1 vpslld $16, %ymm0, %ymm2 vpblendw $-86, %ymm2, %ymm3, %ymm7 vpsrld $16, %ymm3, %ymm2 vpblendw $-86, %ymm0, %ymm2, %ymm0 vmovsldup %ymm6, %ymm2 vpblendd $-86, %ymm2, %ymm4, %ymm2 vpsrlq $32, %ymm4, %ymm3 vpblendd $-86, %ymm6, %ymm3, %ymm3 vmovsldup %ymm5, %ymm4 vpblendd $-86, %ymm4, %ymm7, %ymm4 vpsrlq $32, %ymm7, %ymm6 vpblendd $-86, %ymm5, %ymm6, %ymm5 vmovsldup %ymm0, %ymm6 vpblendd $-86, %ymm6, %ymm1, %ymm6 vpsrlq $32, %ymm1, %ymm1 vpblendd $-86, %ymm0, %ymm1, %ymm0 vpunpcklqdq %ymm4, %ymm2, %ymm1 vpunpckhqdq %ymm4, %ymm2, %ymm2 vpunpcklqdq %ymm3, %ymm6, %ymm4 vpunpckhqdq %ymm3, %ymm6, %ymm3 vpunpcklqdq %ymm0, %ymm5, %ymm6 vpunpckhqdq %ymm0, %ymm5, %ymm0 vperm2i128 $32, %ymm4, %ymm1, %ymm5 vperm2i128 $49, %ymm4, %ymm1, %ymm1 vperm2i128 $32, %ymm2, %ymm6, %ymm4 vperm2i128 $49, %ymm2, %ymm6, %ymm2 vperm2i128 $32, %ymm0, %ymm3, %ymm6 vperm2i128 $49, %ymm0, %ymm3, %ymm0 vmovdqu %ymm5, 192(%rcx) vmovdqu %ymm4, 224(%rcx) vmovdqu %ymm6, 256(%rcx) vmovdqu %ymm1, 288(%rcx) vmovdqu %ymm2, 320(%rcx) vmovdqu %ymm0, 352(%rcx) jmp *%rdi L_poly_sub$1: vmovdqu (%rsi), %ymm0 vmovdqu (%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, (%rcx) vmovdqu 32(%rsi), %ymm0 vmovdqu 32(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 32(%rcx) vmovdqu 64(%rsi), %ymm0 vmovdqu 64(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 64(%rcx) vmovdqu 96(%rsi), %ymm0 vmovdqu 96(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 96(%rcx) vmovdqu 128(%rsi), %ymm0 vmovdqu 128(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 128(%rcx) vmovdqu 160(%rsi), %ymm0 vmovdqu 160(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 160(%rcx) vmovdqu 192(%rsi), %ymm0 vmovdqu 192(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 192(%rcx) vmovdqu 224(%rsi), %ymm0 vmovdqu 224(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 224(%rcx) vmovdqu 256(%rsi), %ymm0 vmovdqu 256(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 256(%rcx) vmovdqu 288(%rsi), %ymm0 vmovdqu 288(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 288(%rcx) vmovdqu 320(%rsi), %ymm0 vmovdqu 320(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 320(%rcx) vmovdqu 352(%rsi), %ymm0 vmovdqu 352(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 352(%rcx) vmovdqu 384(%rsi), %ymm0 vmovdqu 384(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 384(%rcx) vmovdqu 416(%rsi), %ymm0 vmovdqu 416(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 416(%rcx) vmovdqu 448(%rsi), %ymm0 vmovdqu 448(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 448(%rcx) vmovdqu 480(%rsi), %ymm0 vmovdqu 480(%rdi), %ymm1 vpsubw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 480(%rcx) jmp *%r8 L_poly_ntt$1: leaq glob_data + 1280(%rip), %rsi vmovdqu glob_data + 448(%rip), %ymm0 vpbroadcastd (%rsi), %ymm1 vpbroadcastd 4(%rsi), %ymm2 vmovdqu (%rcx), %ymm3 vmovdqu 32(%rcx), %ymm14 vmovdqu 64(%rcx), %ymm4 vmovdqu 96(%rcx), %ymm5 vmovdqu 256(%rcx), %ymm6 vmovdqu 288(%rcx), %ymm7 vmovdqu 320(%rcx), %ymm12 vmovdqu 352(%rcx), %ymm8 vpmullw %ymm6, %ymm1, %ymm9 vpmulhw %ymm6, %ymm2, %ymm6 vpmullw %ymm7, %ymm1, %ymm10 vpmulhw %ymm7, %ymm2, %ymm15 vpmullw %ymm12, %ymm1, %ymm11 vpmulhw %ymm12, %ymm2, %ymm7 vpmullw %ymm8, %ymm1, %ymm12 vpmulhw %ymm8, %ymm2, %ymm8 vpmulhw %ymm0, %ymm9, %ymm9 vpmulhw %ymm0, %ymm10, %ymm10 vpmulhw %ymm0, %ymm11, %ymm11 vpmulhw %ymm0, %ymm12, %ymm12 vpsubw %ymm15, %ymm14, %ymm13 vpaddw %ymm14, %ymm15, %ymm14 vpsubw %ymm6, %ymm3, %ymm15 vpaddw %ymm3, %ymm6, %ymm3 vpsubw %ymm8, %ymm5, %ymm6 vpaddw %ymm5, %ymm8, %ymm5 vpsubw %ymm7, %ymm4, %ymm8 vpaddw %ymm4, %ymm7, %ymm4 vpaddw %ymm15, %ymm9, %ymm7 vpsubw %ymm9, %ymm3, %ymm3 vpaddw %ymm13, %ymm10, %ymm9 vpsubw %ymm10, %ymm14, %ymm10 vpaddw %ymm8, %ymm11, %ymm8 vpsubw %ymm11, %ymm4, %ymm4 vpaddw %ymm6, %ymm12, %ymm6 vpsubw %ymm12, %ymm5, %ymm5 vmovdqu %ymm3, (%rcx) vmovdqu %ymm10, 32(%rcx) vmovdqu %ymm4, 64(%rcx) vmovdqu %ymm5, 96(%rcx) vmovdqu %ymm7, 256(%rcx) vmovdqu %ymm9, 288(%rcx) vmovdqu %ymm8, 320(%rcx) vmovdqu %ymm6, 352(%rcx) vmovdqu 128(%rcx), %ymm3 vmovdqu 160(%rcx), %ymm12 vmovdqu 192(%rcx), %ymm4 vmovdqu 224(%rcx), %ymm5 vmovdqu 384(%rcx), %ymm6 vmovdqu 416(%rcx), %ymm7 vmovdqu 448(%rcx), %ymm10 vmovdqu 480(%rcx), %ymm11 vpmullw %ymm6, %ymm1, %ymm14 vpmulhw %ymm6, %ymm2, %ymm6 vpmullw %ymm7, %ymm1, %ymm8 vpmulhw %ymm7, %ymm2, %ymm13 vpmullw %ymm10, %ymm1, %ymm9 vpmulhw %ymm10, %ymm2, %ymm7 vpmullw %ymm11, %ymm1, %ymm10 vpmulhw %ymm11, %ymm2, %ymm1 vpmulhw %ymm0, %ymm14, %ymm2 vpmulhw %ymm0, %ymm8, %ymm8 vpmulhw %ymm0, %ymm9, %ymm9 vpmulhw %ymm0, %ymm10, %ymm10 vpsubw %ymm13, %ymm12, %ymm11 vpaddw %ymm12, %ymm13, %ymm12 vpsubw %ymm6, %ymm3, %ymm13 vpaddw %ymm3, %ymm6, %ymm3 vpsubw %ymm1, %ymm5, %ymm6 vpaddw %ymm5, %ymm1, %ymm1 vpsubw %ymm7, %ymm4, %ymm5 vpaddw %ymm4, %ymm7, %ymm4 vpaddw %ymm13, %ymm2, %ymm7 vpsubw %ymm2, %ymm3, %ymm2 vpaddw %ymm11, %ymm8, %ymm3 vpsubw %ymm8, %ymm12, %ymm8 vpaddw %ymm5, %ymm9, %ymm5 vpsubw %ymm9, %ymm4, %ymm9 vpaddw %ymm6, %ymm10, %ymm4 vpsubw %ymm10, %ymm1, %ymm14 vmovdqu %ymm7, 384(%rcx) vmovdqu %ymm3, 416(%rcx) vmovdqu %ymm5, 448(%rcx) vmovdqu %ymm4, 480(%rcx) vpbroadcastd 8(%rsi), %ymm1 vpbroadcastd 12(%rsi), %ymm4 vmovdqu %ymm8, %ymm10 vmovdqu %ymm9, %ymm3 vmovdqu (%rcx), %ymm6 vmovdqu 32(%rcx), %ymm5 vmovdqu 64(%rcx), %ymm9 vmovdqu 96(%rcx), %ymm7 vpmullw %ymm2, %ymm1, %ymm11 vpmulhw %ymm2, %ymm4, %ymm8 vpmullw %ymm10, %ymm1, %ymm13 vpmulhw %ymm10, %ymm4, %ymm12 vpmullw %ymm3, %ymm1, %ymm2 vpmulhw %ymm3, %ymm4, %ymm10 vpmullw %ymm14, %ymm1, %ymm3 vpmulhw %ymm14, %ymm4, %ymm14 vpmulhw %ymm0, %ymm11, %ymm11 vpmulhw %ymm0, %ymm13, %ymm1 vpmulhw %ymm0, %ymm2, %ymm2 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm12, %ymm5, %ymm4 vpaddw %ymm5, %ymm12, %ymm5 vpsubw %ymm8, %ymm6, %ymm12 vpaddw %ymm6, %ymm8, %ymm13 vpsubw %ymm14, %ymm7, %ymm6 vpaddw %ymm7, %ymm14, %ymm7 vpsubw %ymm10, %ymm9, %ymm8 vpaddw %ymm9, %ymm10, %ymm9 vpaddw %ymm12, %ymm11, %ymm10 vpsubw %ymm11, %ymm13, %ymm12 vpaddw %ymm4, %ymm1, %ymm4 vpsubw %ymm1, %ymm5, %ymm5 vpaddw %ymm8, %ymm2, %ymm8 vpsubw %ymm2, %ymm9, %ymm2 vpaddw %ymm6, %ymm3, %ymm13 vpsubw %ymm3, %ymm7, %ymm7 vmovdqu 16(%rsi), %ymm3 vmovdqu 48(%rsi), %ymm6 vperm2i128 $32, %ymm10, %ymm12, %ymm11 vperm2i128 $49, %ymm10, %ymm12, %ymm9 vperm2i128 $32, %ymm4, %ymm5, %ymm1 vperm2i128 $49, %ymm4, %ymm5, %ymm12 vperm2i128 $32, %ymm8, %ymm2, %ymm5 vperm2i128 $49, %ymm8, %ymm2, %ymm8 vperm2i128 $32, %ymm13, %ymm7, %ymm2 vperm2i128 $49, %ymm13, %ymm7, %ymm13 vpmullw %ymm5, %ymm3, %ymm4 vpmulhw %ymm5, %ymm6, %ymm10 vpmullw %ymm8, %ymm3, %ymm14 vpmulhw %ymm8, %ymm6, %ymm8 vpmullw %ymm2, %ymm3, %ymm5 vpmulhw %ymm2, %ymm6, %ymm2 vpmullw %ymm13, %ymm3, %ymm7 vpmulhw %ymm13, %ymm6, %ymm13 vpmulhw %ymm0, %ymm4, %ymm3 vpmulhw %ymm0, %ymm14, %ymm4 vpmulhw %ymm0, %ymm5, %ymm5 vpmulhw %ymm0, %ymm7, %ymm6 vpsubw %ymm8, %ymm9, %ymm7 vpaddw %ymm9, %ymm8, %ymm8 vpsubw %ymm10, %ymm11, %ymm9 vpaddw %ymm11, %ymm10, %ymm10 vpsubw %ymm13, %ymm12, %ymm11 vpaddw %ymm12, %ymm13, %ymm12 vpsubw %ymm2, %ymm1, %ymm13 vpaddw %ymm1, %ymm2, %ymm1 vpaddw %ymm9, %ymm3, %ymm2 vpsubw %ymm3, %ymm10, %ymm9 vpaddw %ymm7, %ymm4, %ymm3 vpsubw %ymm4, %ymm8, %ymm4 vpaddw %ymm13, %ymm5, %ymm7 vpsubw %ymm5, %ymm1, %ymm13 vpaddw %ymm11, %ymm6, %ymm11 vpsubw %ymm6, %ymm12, %ymm14 vmovdqu 80(%rsi), %ymm1 vmovdqu 112(%rsi), %ymm10 vpunpcklqdq %ymm2, %ymm9, %ymm5 vpunpckhqdq %ymm2, %ymm9, %ymm12 vpunpcklqdq %ymm3, %ymm4, %ymm8 vpunpckhqdq %ymm3, %ymm4, %ymm6 vpunpcklqdq %ymm7, %ymm13, %ymm2 vpunpckhqdq %ymm7, %ymm13, %ymm4 vpunpcklqdq %ymm11, %ymm14, %ymm3 vpunpckhqdq %ymm11, %ymm14, %ymm7 vpmullw %ymm2, %ymm1, %ymm11 vpmulhw %ymm2, %ymm10, %ymm13 vpmullw %ymm4, %ymm1, %ymm14 vpmulhw %ymm4, %ymm10, %ymm4 vpmullw %ymm3, %ymm1, %ymm2 vpmulhw %ymm3, %ymm10, %ymm9 vpmullw %ymm7, %ymm1, %ymm3 vpmulhw %ymm7, %ymm10, %ymm7 vpmulhw %ymm0, %ymm11, %ymm10 vpmulhw %ymm0, %ymm14, %ymm1 vpmulhw %ymm0, %ymm2, %ymm2 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm4, %ymm12, %ymm11 vpaddw %ymm12, %ymm4, %ymm4 vpsubw %ymm13, %ymm5, %ymm12 vpaddw %ymm5, %ymm13, %ymm13 vpsubw %ymm7, %ymm6, %ymm5 vpaddw %ymm6, %ymm7, %ymm6 vpsubw %ymm9, %ymm8, %ymm7 vpaddw %ymm8, %ymm9, %ymm8 vpaddw %ymm12, %ymm10, %ymm9 vpsubw %ymm10, %ymm13, %ymm12 vpaddw %ymm11, %ymm1, %ymm10 vpsubw %ymm1, %ymm4, %ymm4 vpaddw %ymm7, %ymm2, %ymm7 vpsubw %ymm2, %ymm8, %ymm2 vpaddw %ymm5, %ymm3, %ymm13 vpsubw %ymm3, %ymm6, %ymm6 vmovdqu 144(%rsi), %ymm3 vmovdqu 176(%rsi), %ymm5 vmovsldup %ymm9, %ymm1 vpblendd $-86, %ymm1, %ymm12, %ymm11 vpsrlq $32, %ymm12, %ymm1 vpblendd $-86, %ymm9, %ymm1, %ymm8 vmovsldup %ymm10, %ymm1 vpblendd $-86, %ymm1, %ymm4, %ymm1 vpsrlq $32, %ymm4, %ymm4 vpblendd $-86, %ymm10, %ymm4, %ymm12 vmovsldup %ymm7, %ymm4 vpblendd $-86, %ymm4, %ymm2, %ymm9 vpsrlq $32, %ymm2, %ymm2 vpblendd $-86, %ymm7, %ymm2, %ymm7 vmovsldup %ymm13, %ymm2 vpblendd $-86, %ymm2, %ymm6, %ymm2 vpsrlq $32, %ymm6, %ymm4 vpblendd $-86, %ymm13, %ymm4, %ymm13 vpmullw %ymm9, %ymm3, %ymm4 vpmulhw %ymm9, %ymm5, %ymm10 vpmullw %ymm7, %ymm3, %ymm14 vpmulhw %ymm7, %ymm5, %ymm9 vpmullw %ymm2, %ymm3, %ymm6 vpmulhw %ymm2, %ymm5, %ymm2 vpmullw %ymm13, %ymm3, %ymm7 vpmulhw %ymm13, %ymm5, %ymm13 vpmulhw %ymm0, %ymm4, %ymm3 vpmulhw %ymm0, %ymm14, %ymm4 vpmulhw %ymm0, %ymm6, %ymm5 vpmulhw %ymm0, %ymm7, %ymm6 vpsubw %ymm9, %ymm8, %ymm7 vpaddw %ymm8, %ymm9, %ymm8 vpsubw %ymm10, %ymm11, %ymm9 vpaddw %ymm11, %ymm10, %ymm10 vpsubw %ymm13, %ymm12, %ymm11 vpaddw %ymm12, %ymm13, %ymm12 vpsubw %ymm2, %ymm1, %ymm13 vpaddw %ymm1, %ymm2, %ymm1 vpaddw %ymm9, %ymm3, %ymm2 vpsubw %ymm3, %ymm10, %ymm9 vpaddw %ymm7, %ymm4, %ymm3 vpsubw %ymm4, %ymm8, %ymm4 vpaddw %ymm13, %ymm5, %ymm7 vpsubw %ymm5, %ymm1, %ymm13 vpaddw %ymm11, %ymm6, %ymm11 vpsubw %ymm6, %ymm12, %ymm14 vmovdqu 208(%rsi), %ymm5 vmovdqu 240(%rsi), %ymm6 vpslld $16, %ymm2, %ymm1 vpblendw $-86, %ymm1, %ymm9, %ymm10 vpsrld $16, %ymm9, %ymm1 vpblendw $-86, %ymm2, %ymm1, %ymm8 vpslld $16, %ymm3, %ymm1 vpblendw $-86, %ymm1, %ymm4, %ymm1 vpsrld $16, %ymm4, %ymm2 vpblendw $-86, %ymm3, %ymm2, %ymm12 vpslld $16, %ymm7, %ymm2 vpblendw $-86, %ymm2, %ymm13, %ymm4 vpsrld $16, %ymm13, %ymm2 vpblendw $-86, %ymm7, %ymm2, %ymm7 vpslld $16, %ymm11, %ymm2 vpblendw $-86, %ymm2, %ymm14, %ymm2 vpsrld $16, %ymm14, %ymm3 vpblendw $-86, %ymm11, %ymm3, %ymm13 vpmullw %ymm4, %ymm5, %ymm3 vpmulhw %ymm4, %ymm6, %ymm11 vpmullw %ymm7, %ymm5, %ymm4 vpmulhw %ymm7, %ymm6, %ymm9 vpmullw %ymm2, %ymm5, %ymm7 vpmulhw %ymm2, %ymm6, %ymm2 vpmullw %ymm13, %ymm5, %ymm14 vpmulhw %ymm13, %ymm6, %ymm13 vpmulhw %ymm0, %ymm3, %ymm3 vpmulhw %ymm0, %ymm4, %ymm4 vpmulhw %ymm0, %ymm7, %ymm5 vpmulhw %ymm0, %ymm14, %ymm6 vpsubw %ymm9, %ymm8, %ymm7 vpaddw %ymm8, %ymm9, %ymm8 vpsubw %ymm11, %ymm10, %ymm9 vpaddw %ymm10, %ymm11, %ymm10 vpsubw %ymm13, %ymm12, %ymm11 vpaddw %ymm12, %ymm13, %ymm12 vpsubw %ymm2, %ymm1, %ymm13 vpaddw %ymm1, %ymm2, %ymm1 vpaddw %ymm9, %ymm3, %ymm2 vpsubw %ymm3, %ymm10, %ymm3 vpaddw %ymm7, %ymm4, %ymm7 vpsubw %ymm4, %ymm8, %ymm4 vpaddw %ymm13, %ymm5, %ymm8 vpsubw %ymm5, %ymm1, %ymm1 vpaddw %ymm11, %ymm6, %ymm5 vpsubw %ymm6, %ymm12, %ymm10 vmovdqu 272(%rsi), %ymm9 vmovdqu 304(%rsi), %ymm13 vmovdqu 336(%rsi), %ymm11 vmovdqu 368(%rsi), %ymm6 vpmullw %ymm1, %ymm9, %ymm14 vpmulhw %ymm1, %ymm13, %ymm12 vpmullw %ymm10, %ymm9, %ymm9 vpmulhw %ymm10, %ymm13, %ymm13 vpmullw %ymm8, %ymm11, %ymm10 vpmulhw %ymm8, %ymm6, %ymm1 vpmullw %ymm5, %ymm11, %ymm11 vpmulhw %ymm5, %ymm6, %ymm5 vpmulhw %ymm0, %ymm14, %ymm6 vpmulhw %ymm0, %ymm9, %ymm8 vpmulhw %ymm0, %ymm10, %ymm9 vpmulhw %ymm0, %ymm11, %ymm10 vpsubw %ymm13, %ymm4, %ymm11 vpaddw %ymm4, %ymm13, %ymm4 vpsubw %ymm12, %ymm3, %ymm13 vpaddw %ymm3, %ymm12, %ymm3 vpsubw %ymm5, %ymm7, %ymm12 vpaddw %ymm7, %ymm5, %ymm5 vpsubw %ymm1, %ymm2, %ymm7 vpaddw %ymm2, %ymm1, %ymm1 vpaddw %ymm13, %ymm6, %ymm2 vpsubw %ymm6, %ymm3, %ymm3 vpaddw %ymm11, %ymm8, %ymm6 vpsubw %ymm8, %ymm4, %ymm4 vpaddw %ymm7, %ymm9, %ymm7 vpsubw %ymm9, %ymm1, %ymm8 vpaddw %ymm12, %ymm10, %ymm1 vpsubw %ymm10, %ymm5, %ymm5 vmovdqu glob_data + 384(%rip), %ymm9 vpmulhw %ymm9, %ymm3, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm3, %ymm3 vpmulhw %ymm9, %ymm4, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm4, %ymm4 vpmulhw %ymm9, %ymm8, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm8, %ymm8 vpmulhw %ymm9, %ymm5, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm5, %ymm5 vpmulhw %ymm9, %ymm2, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm2, %ymm2 vpmulhw %ymm9, %ymm6, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm6, %ymm6 vpmulhw %ymm9, %ymm7, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm7, %ymm7 vpmulhw %ymm9, %ymm1, %ymm9 vpsraw $10, %ymm9, %ymm9 vpmullw %ymm0, %ymm9, %ymm9 vpsubw %ymm9, %ymm1, %ymm1 vmovdqu %ymm3, (%rcx) vmovdqu %ymm4, 32(%rcx) vmovdqu %ymm2, 64(%rcx) vmovdqu %ymm6, 96(%rcx) vmovdqu %ymm8, 128(%rcx) vmovdqu %ymm5, 160(%rcx) vmovdqu %ymm7, 192(%rcx) vmovdqu %ymm1, 224(%rcx) vpbroadcastd 400(%rsi), %ymm5 vpbroadcastd 404(%rsi), %ymm8 vmovdqu 384(%rcx), %ymm1 vmovdqu 416(%rcx), %ymm2 vmovdqu 448(%rcx), %ymm10 vmovdqu 480(%rcx), %ymm9 vmovdqu 256(%rcx), %ymm3 vmovdqu 288(%rcx), %ymm7 vmovdqu 320(%rcx), %ymm6 vmovdqu 352(%rcx), %ymm4 vpmullw %ymm1, %ymm5, %ymm14 vpmulhw %ymm1, %ymm8, %ymm12 vpmullw %ymm2, %ymm5, %ymm1 vpmulhw %ymm2, %ymm8, %ymm11 vpmullw %ymm10, %ymm5, %ymm2 vpmulhw %ymm10, %ymm8, %ymm13 vpmullw %ymm9, %ymm5, %ymm10 vpmulhw %ymm9, %ymm8, %ymm5 vpmulhw %ymm0, %ymm14, %ymm8 vpmulhw %ymm0, %ymm1, %ymm9 vpmulhw %ymm0, %ymm2, %ymm1 vpmulhw %ymm0, %ymm10, %ymm2 vpsubw %ymm11, %ymm7, %ymm10 vpaddw %ymm7, %ymm11, %ymm11 vpsubw %ymm12, %ymm3, %ymm7 vpaddw %ymm3, %ymm12, %ymm12 vpsubw %ymm5, %ymm4, %ymm3 vpaddw %ymm4, %ymm5, %ymm4 vpsubw %ymm13, %ymm6, %ymm5 vpaddw %ymm6, %ymm13, %ymm6 vpaddw %ymm7, %ymm8, %ymm7 vpsubw %ymm8, %ymm12, %ymm12 vpaddw %ymm10, %ymm9, %ymm8 vpsubw %ymm9, %ymm11, %ymm9 vpaddw %ymm5, %ymm1, %ymm5 vpsubw %ymm1, %ymm6, %ymm6 vpaddw %ymm3, %ymm2, %ymm13 vpsubw %ymm2, %ymm4, %ymm2 vmovdqu 408(%rsi), %ymm3 vmovdqu 440(%rsi), %ymm4 vperm2i128 $32, %ymm7, %ymm12, %ymm10 vperm2i128 $49, %ymm7, %ymm12, %ymm11 vperm2i128 $32, %ymm8, %ymm9, %ymm1 vperm2i128 $49, %ymm8, %ymm9, %ymm12 vperm2i128 $32, %ymm5, %ymm6, %ymm8 vperm2i128 $49, %ymm5, %ymm6, %ymm5 vperm2i128 $32, %ymm13, %ymm2, %ymm6 vperm2i128 $49, %ymm13, %ymm2, %ymm13 vpmullw %ymm8, %ymm3, %ymm7 vpmulhw %ymm8, %ymm4, %ymm14 vpmullw %ymm5, %ymm3, %ymm9 vpmulhw %ymm5, %ymm4, %ymm8 vpmullw %ymm6, %ymm3, %ymm5 vpmulhw %ymm6, %ymm4, %ymm2 vpmullw %ymm13, %ymm3, %ymm6 vpmulhw %ymm13, %ymm4, %ymm13 vpmulhw %ymm0, %ymm7, %ymm3 vpmulhw %ymm0, %ymm9, %ymm4 vpmulhw %ymm0, %ymm5, %ymm5 vpmulhw %ymm0, %ymm6, %ymm6 vpsubw %ymm8, %ymm11, %ymm7 vpaddw %ymm11, %ymm8, %ymm8 vpsubw %ymm14, %ymm10, %ymm9 vpaddw %ymm10, %ymm14, %ymm10 vpsubw %ymm13, %ymm12, %ymm11 vpaddw %ymm12, %ymm13, %ymm12 vpsubw %ymm2, %ymm1, %ymm13 vpaddw %ymm1, %ymm2, %ymm1 vpaddw %ymm9, %ymm3, %ymm2 vpsubw %ymm3, %ymm10, %ymm9 vpaddw %ymm7, %ymm4, %ymm3 vpsubw %ymm4, %ymm8, %ymm4 vpaddw %ymm13, %ymm5, %ymm7 vpsubw %ymm5, %ymm1, %ymm13 vpaddw %ymm11, %ymm6, %ymm11 vpsubw %ymm6, %ymm12, %ymm14 vmovdqu 472(%rsi), %ymm1 vmovdqu 504(%rsi), %ymm10 vpunpcklqdq %ymm2, %ymm9, %ymm5 vpunpckhqdq %ymm2, %ymm9, %ymm12 vpunpcklqdq %ymm3, %ymm4, %ymm8 vpunpckhqdq %ymm3, %ymm4, %ymm6 vpunpcklqdq %ymm7, %ymm13, %ymm2 vpunpckhqdq %ymm7, %ymm13, %ymm4 vpunpcklqdq %ymm11, %ymm14, %ymm3 vpunpckhqdq %ymm11, %ymm14, %ymm7 vpmullw %ymm2, %ymm1, %ymm11 vpmulhw %ymm2, %ymm10, %ymm13 vpmullw %ymm4, %ymm1, %ymm14 vpmulhw %ymm4, %ymm10, %ymm4 vpmullw %ymm3, %ymm1, %ymm2 vpmulhw %ymm3, %ymm10, %ymm9 vpmullw %ymm7, %ymm1, %ymm3 vpmulhw %ymm7, %ymm10, %ymm7 vpmulhw %ymm0, %ymm11, %ymm10 vpmulhw %ymm0, %ymm14, %ymm1 vpmulhw %ymm0, %ymm2, %ymm2 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm4, %ymm12, %ymm11 vpaddw %ymm12, %ymm4, %ymm4 vpsubw %ymm13, %ymm5, %ymm12 vpaddw %ymm5, %ymm13, %ymm13 vpsubw %ymm7, %ymm6, %ymm5 vpaddw %ymm6, %ymm7, %ymm6 vpsubw %ymm9, %ymm8, %ymm7 vpaddw %ymm8, %ymm9, %ymm8 vpaddw %ymm12, %ymm10, %ymm9 vpsubw %ymm10, %ymm13, %ymm12 vpaddw %ymm11, %ymm1, %ymm10 vpsubw %ymm1, %ymm4, %ymm4 vpaddw %ymm7, %ymm2, %ymm7 vpsubw %ymm2, %ymm8, %ymm2 vpaddw %ymm5, %ymm3, %ymm13 vpsubw %ymm3, %ymm6, %ymm6 vmovdqu 536(%rsi), %ymm3 vmovdqu 568(%rsi), %ymm5 vmovsldup %ymm9, %ymm1 vpblendd $-86, %ymm1, %ymm12, %ymm11 vpsrlq $32, %ymm12, %ymm1 vpblendd $-86, %ymm9, %ymm1, %ymm8 vmovsldup %ymm10, %ymm1 vpblendd $-86, %ymm1, %ymm4, %ymm1 vpsrlq $32, %ymm4, %ymm4 vpblendd $-86, %ymm10, %ymm4, %ymm12 vmovsldup %ymm7, %ymm4 vpblendd $-86, %ymm4, %ymm2, %ymm9 vpsrlq $32, %ymm2, %ymm2 vpblendd $-86, %ymm7, %ymm2, %ymm7 vmovsldup %ymm13, %ymm2 vpblendd $-86, %ymm2, %ymm6, %ymm2 vpsrlq $32, %ymm6, %ymm4 vpblendd $-86, %ymm13, %ymm4, %ymm13 vpmullw %ymm9, %ymm3, %ymm4 vpmulhw %ymm9, %ymm5, %ymm10 vpmullw %ymm7, %ymm3, %ymm14 vpmulhw %ymm7, %ymm5, %ymm9 vpmullw %ymm2, %ymm3, %ymm6 vpmulhw %ymm2, %ymm5, %ymm2 vpmullw %ymm13, %ymm3, %ymm7 vpmulhw %ymm13, %ymm5, %ymm13 vpmulhw %ymm0, %ymm4, %ymm3 vpmulhw %ymm0, %ymm14, %ymm4 vpmulhw %ymm0, %ymm6, %ymm5 vpmulhw %ymm0, %ymm7, %ymm6 vpsubw %ymm9, %ymm8, %ymm7 vpaddw %ymm8, %ymm9, %ymm8 vpsubw %ymm10, %ymm11, %ymm9 vpaddw %ymm11, %ymm10, %ymm10 vpsubw %ymm13, %ymm12, %ymm11 vpaddw %ymm12, %ymm13, %ymm12 vpsubw %ymm2, %ymm1, %ymm13 vpaddw %ymm1, %ymm2, %ymm1 vpaddw %ymm9, %ymm3, %ymm2 vpsubw %ymm3, %ymm10, %ymm9 vpaddw %ymm7, %ymm4, %ymm3 vpsubw %ymm4, %ymm8, %ymm4 vpaddw %ymm13, %ymm5, %ymm7 vpsubw %ymm5, %ymm1, %ymm13 vpaddw %ymm11, %ymm6, %ymm11 vpsubw %ymm6, %ymm12, %ymm14 vmovdqu 600(%rsi), %ymm5 vmovdqu 632(%rsi), %ymm6 vpslld $16, %ymm2, %ymm1 vpblendw $-86, %ymm1, %ymm9, %ymm10 vpsrld $16, %ymm9, %ymm1 vpblendw $-86, %ymm2, %ymm1, %ymm8 vpslld $16, %ymm3, %ymm1 vpblendw $-86, %ymm1, %ymm4, %ymm1 vpsrld $16, %ymm4, %ymm2 vpblendw $-86, %ymm3, %ymm2, %ymm12 vpslld $16, %ymm7, %ymm2 vpblendw $-86, %ymm2, %ymm13, %ymm4 vpsrld $16, %ymm13, %ymm2 vpblendw $-86, %ymm7, %ymm2, %ymm7 vpslld $16, %ymm11, %ymm2 vpblendw $-86, %ymm2, %ymm14, %ymm2 vpsrld $16, %ymm14, %ymm3 vpblendw $-86, %ymm11, %ymm3, %ymm13 vpmullw %ymm4, %ymm5, %ymm3 vpmulhw %ymm4, %ymm6, %ymm11 vpmullw %ymm7, %ymm5, %ymm4 vpmulhw %ymm7, %ymm6, %ymm9 vpmullw %ymm2, %ymm5, %ymm7 vpmulhw %ymm2, %ymm6, %ymm2 vpmullw %ymm13, %ymm5, %ymm14 vpmulhw %ymm13, %ymm6, %ymm13 vpmulhw %ymm0, %ymm3, %ymm3 vpmulhw %ymm0, %ymm4, %ymm4 vpmulhw %ymm0, %ymm7, %ymm5 vpmulhw %ymm0, %ymm14, %ymm6 vpsubw %ymm9, %ymm8, %ymm7 vpaddw %ymm8, %ymm9, %ymm8 vpsubw %ymm11, %ymm10, %ymm9 vpaddw %ymm10, %ymm11, %ymm10 vpsubw %ymm13, %ymm12, %ymm11 vpaddw %ymm12, %ymm13, %ymm12 vpsubw %ymm2, %ymm1, %ymm13 vpaddw %ymm1, %ymm2, %ymm1 vpaddw %ymm9, %ymm3, %ymm2 vpsubw %ymm3, %ymm10, %ymm3 vpaddw %ymm7, %ymm4, %ymm7 vpsubw %ymm4, %ymm8, %ymm4 vpaddw %ymm13, %ymm5, %ymm8 vpsubw %ymm5, %ymm1, %ymm1 vpaddw %ymm11, %ymm6, %ymm5 vpsubw %ymm6, %ymm12, %ymm10 vmovdqu 664(%rsi), %ymm9 vmovdqu 696(%rsi), %ymm13 vmovdqu 728(%rsi), %ymm11 vmovdqu 760(%rsi), %ymm6 vpmullw %ymm1, %ymm9, %ymm14 vpmulhw %ymm1, %ymm13, %ymm12 vpmullw %ymm10, %ymm9, %ymm9 vpmulhw %ymm10, %ymm13, %ymm13 vpmullw %ymm8, %ymm11, %ymm10 vpmulhw %ymm8, %ymm6, %ymm1 vpmullw %ymm5, %ymm11, %ymm11 vpmulhw %ymm5, %ymm6, %ymm5 vpmulhw %ymm0, %ymm14, %ymm6 vpmulhw %ymm0, %ymm9, %ymm8 vpmulhw %ymm0, %ymm10, %ymm9 vpmulhw %ymm0, %ymm11, %ymm10 vpsubw %ymm13, %ymm4, %ymm11 vpaddw %ymm4, %ymm13, %ymm4 vpsubw %ymm12, %ymm3, %ymm13 vpaddw %ymm3, %ymm12, %ymm3 vpsubw %ymm5, %ymm7, %ymm12 vpaddw %ymm7, %ymm5, %ymm5 vpsubw %ymm1, %ymm2, %ymm7 vpaddw %ymm2, %ymm1, %ymm1 vpaddw %ymm13, %ymm6, %ymm2 vpsubw %ymm6, %ymm3, %ymm3 vpaddw %ymm11, %ymm8, %ymm6 vpsubw %ymm8, %ymm4, %ymm4 vpaddw %ymm7, %ymm9, %ymm7 vpsubw %ymm9, %ymm1, %ymm8 vpaddw %ymm12, %ymm10, %ymm1 vpsubw %ymm10, %ymm5, %ymm5 vmovdqu glob_data + 384(%rip), %ymm9 vpmulhw %ymm9, %ymm3, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm3, %ymm3 vpmulhw %ymm9, %ymm4, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm4, %ymm4 vpmulhw %ymm9, %ymm8, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm8, %ymm8 vpmulhw %ymm9, %ymm5, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm5, %ymm5 vpmulhw %ymm9, %ymm2, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm2, %ymm2 vpmulhw %ymm9, %ymm6, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm6, %ymm6 vpmulhw %ymm9, %ymm7, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm7, %ymm7 vpmulhw %ymm9, %ymm1, %ymm9 vpsraw $10, %ymm9, %ymm9 vpmullw %ymm0, %ymm9, %ymm0 vpsubw %ymm0, %ymm1, %ymm0 vmovdqu %ymm3, 256(%rcx) vmovdqu %ymm4, 288(%rcx) vmovdqu %ymm2, 320(%rcx) vmovdqu %ymm6, 352(%rcx) vmovdqu %ymm8, 384(%rcx) vmovdqu %ymm5, 416(%rcx) vmovdqu %ymm7, 448(%rcx) vmovdqu %ymm0, 480(%rcx) jmp *%rdi L_poly_invntt$1: leaq glob_data + 480(%rip), %rsi vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu (%rsi), %ymm12 vmovdqu 64(%rsi), %ymm1 vmovdqu 32(%rsi), %ymm2 vmovdqu 96(%rsi), %ymm5 vmovdqu (%rcx), %ymm3 vmovdqu 32(%rcx), %ymm4 vmovdqu 64(%rcx), %ymm15 vmovdqu 96(%rcx), %ymm11 vmovdqu 128(%rcx), %ymm7 vmovdqu 160(%rcx), %ymm8 vmovdqu 192(%rcx), %ymm13 vmovdqu 224(%rcx), %ymm14 vpsubw %ymm15, %ymm3, %ymm6 vpsubw %ymm11, %ymm4, %ymm9 vpsubw %ymm13, %ymm7, %ymm10 vpaddw %ymm3, %ymm15, %ymm3 vpaddw %ymm4, %ymm11, %ymm4 vpmullw %ymm6, %ymm12, %ymm11 vpaddw %ymm7, %ymm13, %ymm7 vpmullw %ymm9, %ymm12, %ymm12 vpsubw %ymm14, %ymm8, %ymm13 vpaddw %ymm8, %ymm14, %ymm8 vpmullw %ymm10, %ymm1, %ymm14 vpmullw %ymm13, %ymm1, %ymm1 vpmulhw %ymm6, %ymm2, %ymm6 vpmulhw %ymm9, %ymm2, %ymm2 vpmulhw %ymm10, %ymm5, %ymm9 vpmulhw %ymm13, %ymm5, %ymm5 vpmulhw %ymm11, %ymm0, %ymm10 vpmulhw %ymm12, %ymm0, %ymm11 vpmulhw %ymm14, %ymm0, %ymm12 vpmulhw %ymm1, %ymm0, %ymm1 vpsubw %ymm10, %ymm6, %ymm6 vpsubw %ymm11, %ymm2, %ymm11 vpsubw %ymm12, %ymm9, %ymm9 vpsubw %ymm1, %ymm5, %ymm13 vmovdqu glob_data + 384(%rip), %ymm1 vmovdqu 128(%rsi), %ymm2 vmovdqu 160(%rsi), %ymm5 vpmulhw %ymm1, %ymm3, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm3, %ymm10 vpmulhw %ymm1, %ymm4, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm12 vpmulhw %ymm1, %ymm7, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm7, %ymm7 vpmulhw %ymm1, %ymm8, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm8, %ymm8 vpsubw %ymm7, %ymm10, %ymm15 vpsubw %ymm8, %ymm12, %ymm3 vpsubw %ymm9, %ymm6, %ymm4 vpaddw %ymm10, %ymm7, %ymm7 vpaddw %ymm12, %ymm8, %ymm8 vpmullw %ymm15, %ymm2, %ymm10 vpaddw %ymm6, %ymm9, %ymm9 vpmullw %ymm3, %ymm2, %ymm6 vpsubw %ymm13, %ymm11, %ymm12 vpaddw %ymm11, %ymm13, %ymm11 vpmullw %ymm4, %ymm2, %ymm13 vpmullw %ymm12, %ymm2, %ymm14 vpmulhw %ymm15, %ymm5, %ymm2 vpmulhw %ymm3, %ymm5, %ymm3 vpmulhw %ymm4, %ymm5, %ymm4 vpmulhw %ymm12, %ymm5, %ymm5 vpmulhw %ymm10, %ymm0, %ymm10 vpmulhw %ymm6, %ymm0, %ymm12 vpmulhw %ymm13, %ymm0, %ymm13 vpmulhw %ymm14, %ymm0, %ymm6 vpsubw %ymm10, %ymm2, %ymm2 vpsubw %ymm12, %ymm3, %ymm3 vpsubw %ymm13, %ymm4, %ymm4 vpsubw %ymm6, %ymm5, %ymm5 vpslld $16, %ymm8, %ymm6 vpblendw $-86, %ymm6, %ymm7, %ymm6 vpsrld $16, %ymm7, %ymm7 vpblendw $-86, %ymm8, %ymm7, %ymm7 vpslld $16, %ymm11, %ymm8 vpblendw $-86, %ymm8, %ymm9, %ymm10 vpsrld $16, %ymm9, %ymm8 vpblendw $-86, %ymm11, %ymm8, %ymm11 vpslld $16, %ymm3, %ymm8 vpblendw $-86, %ymm8, %ymm2, %ymm8 vpsrld $16, %ymm2, %ymm2 vpblendw $-86, %ymm3, %ymm2, %ymm9 vpslld $16, %ymm5, %ymm2 vpblendw $-86, %ymm2, %ymm4, %ymm12 vpsrld $16, %ymm4, %ymm2 vpblendw $-86, %ymm5, %ymm2, %ymm13 vmovdqu 192(%rsi), %ymm2 vmovdqu 224(%rsi), %ymm5 vpsubw %ymm7, %ymm6, %ymm15 vpsubw %ymm11, %ymm10, %ymm3 vpsubw %ymm9, %ymm8, %ymm4 vpaddw %ymm6, %ymm7, %ymm6 vpaddw %ymm10, %ymm11, %ymm7 vpmullw %ymm15, %ymm2, %ymm10 vpaddw %ymm8, %ymm9, %ymm8 vpmullw %ymm3, %ymm2, %ymm9 vpsubw %ymm13, %ymm12, %ymm11 vpaddw %ymm12, %ymm13, %ymm12 vpmullw %ymm4, %ymm2, %ymm13 vpmullw %ymm11, %ymm2, %ymm14 vpmulhw %ymm15, %ymm5, %ymm2 vpmulhw %ymm3, %ymm5, %ymm3 vpmulhw %ymm4, %ymm5, %ymm4 vpmulhw %ymm11, %ymm5, %ymm5 vpmulhw %ymm10, %ymm0, %ymm10 vpmulhw %ymm9, %ymm0, %ymm11 vpmulhw %ymm13, %ymm0, %ymm13 vpmulhw %ymm14, %ymm0, %ymm9 vpsubw %ymm10, %ymm2, %ymm2 vpsubw %ymm11, %ymm3, %ymm3 vpsubw %ymm13, %ymm4, %ymm4 vpsubw %ymm9, %ymm5, %ymm5 vpmulhw %ymm1, %ymm6, %ymm9 vpsraw $10, %ymm9, %ymm9 vpmullw %ymm0, %ymm9, %ymm9 vpsubw %ymm9, %ymm6, %ymm6 vmovsldup %ymm7, %ymm9 vpblendd $-86, %ymm9, %ymm6, %ymm9 vpsrlq $32, %ymm6, %ymm6 vpblendd $-86, %ymm7, %ymm6, %ymm10 vmovsldup %ymm12, %ymm6 vpblendd $-86, %ymm6, %ymm8, %ymm11 vpsrlq $32, %ymm8, %ymm6 vpblendd $-86, %ymm12, %ymm6, %ymm14 vmovsldup %ymm3, %ymm6 vpblendd $-86, %ymm6, %ymm2, %ymm12 vpsrlq $32, %ymm2, %ymm2 vpblendd $-86, %ymm3, %ymm2, %ymm13 vmovsldup %ymm5, %ymm2 vpblendd $-86, %ymm2, %ymm4, %ymm2 vpsrlq $32, %ymm4, %ymm3 vpblendd $-86, %ymm5, %ymm3, %ymm3 vmovdqu 256(%rsi), %ymm4 vmovdqu 288(%rsi), %ymm5 vpsubw %ymm10, %ymm9, %ymm6 vpsubw %ymm14, %ymm11, %ymm7 vpsubw %ymm13, %ymm12, %ymm8 vpaddw %ymm9, %ymm10, %ymm9 vpaddw %ymm11, %ymm14, %ymm10 vpmullw %ymm6, %ymm4, %ymm11 vpaddw %ymm12, %ymm13, %ymm12 vpmullw %ymm7, %ymm4, %ymm13 vpsubw %ymm3, %ymm2, %ymm14 vpaddw %ymm2, %ymm3, %ymm2 vpmullw %ymm8, %ymm4, %ymm3 vpmullw %ymm14, %ymm4, %ymm4 vpmulhw %ymm6, %ymm5, %ymm6 vpmulhw %ymm7, %ymm5, %ymm7 vpmulhw %ymm8, %ymm5, %ymm8 vpmulhw %ymm14, %ymm5, %ymm5 vpmulhw %ymm11, %ymm0, %ymm11 vpmulhw %ymm13, %ymm0, %ymm13 vpmulhw %ymm3, %ymm0, %ymm3 vpmulhw %ymm4, %ymm0, %ymm4 vpsubw %ymm11, %ymm6, %ymm6 vpsubw %ymm13, %ymm7, %ymm7 vpsubw %ymm3, %ymm8, %ymm3 vpsubw %ymm4, %ymm5, %ymm4 vpmulhw %ymm1, %ymm9, %ymm5 vpsraw $10, %ymm5, %ymm5 vpmullw %ymm0, %ymm5, %ymm5 vpsubw %ymm5, %ymm9, %ymm8 vpunpcklqdq %ymm10, %ymm8, %ymm5 vpunpckhqdq %ymm10, %ymm8, %ymm8 vpunpcklqdq %ymm2, %ymm12, %ymm9 vpunpckhqdq %ymm2, %ymm12, %ymm2 vpunpcklqdq %ymm7, %ymm6, %ymm10 vpunpckhqdq %ymm7, %ymm6, %ymm6 vpunpcklqdq %ymm4, %ymm3, %ymm7 vpunpckhqdq %ymm4, %ymm3, %ymm3 vmovdqu 320(%rsi), %ymm4 vmovdqu 352(%rsi), %ymm11 vpsubw %ymm8, %ymm5, %ymm12 vpsubw %ymm2, %ymm9, %ymm13 vpsubw %ymm6, %ymm10, %ymm14 vpaddw %ymm5, %ymm8, %ymm5 vpaddw %ymm9, %ymm2, %ymm2 vpmullw %ymm12, %ymm4, %ymm8 vpaddw %ymm10, %ymm6, %ymm6 vpmullw %ymm13, %ymm4, %ymm9 vpsubw %ymm3, %ymm7, %ymm10 vpaddw %ymm7, %ymm3, %ymm3 vpmullw %ymm14, %ymm4, %ymm7 vpmullw %ymm10, %ymm4, %ymm4 vpmulhw %ymm12, %ymm11, %ymm12 vpmulhw %ymm13, %ymm11, %ymm13 vpmulhw %ymm14, %ymm11, %ymm14 vpmulhw %ymm10, %ymm11, %ymm10 vpmulhw %ymm8, %ymm0, %ymm8 vpmulhw %ymm9, %ymm0, %ymm9 vpmulhw %ymm7, %ymm0, %ymm7 vpmulhw %ymm4, %ymm0, %ymm4 vpsubw %ymm8, %ymm12, %ymm8 vpsubw %ymm9, %ymm13, %ymm9 vpsubw %ymm7, %ymm14, %ymm7 vpsubw %ymm4, %ymm10, %ymm4 vpmulhw %ymm1, %ymm5, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm5, %ymm10 vperm2i128 $32, %ymm2, %ymm10, %ymm5 vperm2i128 $49, %ymm2, %ymm10, %ymm2 vperm2i128 $32, %ymm3, %ymm6, %ymm10 vperm2i128 $49, %ymm3, %ymm6, %ymm3 vperm2i128 $32, %ymm9, %ymm8, %ymm6 vperm2i128 $49, %ymm9, %ymm8, %ymm8 vperm2i128 $32, %ymm4, %ymm7, %ymm9 vperm2i128 $49, %ymm4, %ymm7, %ymm4 vpbroadcastd 384(%rsi), %ymm7 vpbroadcastd 388(%rsi), %ymm11 vpsubw %ymm2, %ymm5, %ymm12 vpsubw %ymm3, %ymm10, %ymm13 vpsubw %ymm8, %ymm6, %ymm14 vpaddw %ymm5, %ymm2, %ymm2 vpaddw %ymm10, %ymm3, %ymm3 vpmullw %ymm12, %ymm7, %ymm5 vpaddw %ymm6, %ymm8, %ymm6 vpmullw %ymm13, %ymm7, %ymm8 vpsubw %ymm4, %ymm9, %ymm10 vpaddw %ymm9, %ymm4, %ymm4 vpmullw %ymm14, %ymm7, %ymm9 vpmullw %ymm10, %ymm7, %ymm7 vpmulhw %ymm12, %ymm11, %ymm12 vpmulhw %ymm13, %ymm11, %ymm13 vpmulhw %ymm14, %ymm11, %ymm14 vpmulhw %ymm10, %ymm11, %ymm10 vpmulhw %ymm5, %ymm0, %ymm5 vpmulhw %ymm8, %ymm0, %ymm8 vpmulhw %ymm9, %ymm0, %ymm9 vpmulhw %ymm7, %ymm0, %ymm7 vpsubw %ymm5, %ymm12, %ymm5 vpsubw %ymm8, %ymm13, %ymm8 vpsubw %ymm9, %ymm14, %ymm9 vpsubw %ymm7, %ymm10, %ymm7 vpmulhw %ymm1, %ymm2, %ymm1 vpsraw $10, %ymm1, %ymm1 vpmullw %ymm0, %ymm1, %ymm1 vpsubw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, (%rcx) vmovdqu %ymm3, 32(%rcx) vmovdqu %ymm6, 64(%rcx) vmovdqu %ymm4, 96(%rcx) vmovdqu %ymm5, 128(%rcx) vmovdqu %ymm8, 160(%rcx) vmovdqu %ymm9, 192(%rcx) vmovdqu %ymm7, 224(%rcx) vmovdqu 392(%rsi), %ymm12 vmovdqu 456(%rsi), %ymm1 vmovdqu 424(%rsi), %ymm2 vmovdqu 488(%rsi), %ymm5 vmovdqu 256(%rcx), %ymm3 vmovdqu 288(%rcx), %ymm4 vmovdqu 320(%rcx), %ymm15 vmovdqu 352(%rcx), %ymm11 vmovdqu 384(%rcx), %ymm7 vmovdqu 416(%rcx), %ymm8 vmovdqu 448(%rcx), %ymm13 vmovdqu 480(%rcx), %ymm14 vpsubw %ymm15, %ymm3, %ymm6 vpsubw %ymm11, %ymm4, %ymm9 vpsubw %ymm13, %ymm7, %ymm10 vpaddw %ymm3, %ymm15, %ymm3 vpaddw %ymm4, %ymm11, %ymm4 vpmullw %ymm6, %ymm12, %ymm11 vpaddw %ymm7, %ymm13, %ymm7 vpmullw %ymm9, %ymm12, %ymm12 vpsubw %ymm14, %ymm8, %ymm13 vpaddw %ymm8, %ymm14, %ymm8 vpmullw %ymm10, %ymm1, %ymm14 vpmullw %ymm13, %ymm1, %ymm1 vpmulhw %ymm6, %ymm2, %ymm6 vpmulhw %ymm9, %ymm2, %ymm2 vpmulhw %ymm10, %ymm5, %ymm9 vpmulhw %ymm13, %ymm5, %ymm5 vpmulhw %ymm11, %ymm0, %ymm10 vpmulhw %ymm12, %ymm0, %ymm11 vpmulhw %ymm14, %ymm0, %ymm12 vpmulhw %ymm1, %ymm0, %ymm1 vpsubw %ymm10, %ymm6, %ymm6 vpsubw %ymm11, %ymm2, %ymm11 vpsubw %ymm12, %ymm9, %ymm9 vpsubw %ymm1, %ymm5, %ymm13 vmovdqu glob_data + 384(%rip), %ymm1 vmovdqu 520(%rsi), %ymm2 vmovdqu 552(%rsi), %ymm5 vpmulhw %ymm1, %ymm3, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm3, %ymm10 vpmulhw %ymm1, %ymm4, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm12 vpmulhw %ymm1, %ymm7, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm7, %ymm7 vpmulhw %ymm1, %ymm8, %ymm3 vpsraw $10, %ymm3, %ymm3 vpmullw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm8, %ymm8 vpsubw %ymm7, %ymm10, %ymm15 vpsubw %ymm8, %ymm12, %ymm3 vpsubw %ymm9, %ymm6, %ymm4 vpaddw %ymm10, %ymm7, %ymm7 vpaddw %ymm12, %ymm8, %ymm8 vpmullw %ymm15, %ymm2, %ymm10 vpaddw %ymm6, %ymm9, %ymm9 vpmullw %ymm3, %ymm2, %ymm6 vpsubw %ymm13, %ymm11, %ymm12 vpaddw %ymm11, %ymm13, %ymm11 vpmullw %ymm4, %ymm2, %ymm13 vpmullw %ymm12, %ymm2, %ymm14 vpmulhw %ymm15, %ymm5, %ymm2 vpmulhw %ymm3, %ymm5, %ymm3 vpmulhw %ymm4, %ymm5, %ymm4 vpmulhw %ymm12, %ymm5, %ymm5 vpmulhw %ymm10, %ymm0, %ymm10 vpmulhw %ymm6, %ymm0, %ymm12 vpmulhw %ymm13, %ymm0, %ymm13 vpmulhw %ymm14, %ymm0, %ymm6 vpsubw %ymm10, %ymm2, %ymm2 vpsubw %ymm12, %ymm3, %ymm3 vpsubw %ymm13, %ymm4, %ymm4 vpsubw %ymm6, %ymm5, %ymm5 vpslld $16, %ymm8, %ymm6 vpblendw $-86, %ymm6, %ymm7, %ymm6 vpsrld $16, %ymm7, %ymm7 vpblendw $-86, %ymm8, %ymm7, %ymm7 vpslld $16, %ymm11, %ymm8 vpblendw $-86, %ymm8, %ymm9, %ymm10 vpsrld $16, %ymm9, %ymm8 vpblendw $-86, %ymm11, %ymm8, %ymm11 vpslld $16, %ymm3, %ymm8 vpblendw $-86, %ymm8, %ymm2, %ymm8 vpsrld $16, %ymm2, %ymm2 vpblendw $-86, %ymm3, %ymm2, %ymm9 vpslld $16, %ymm5, %ymm2 vpblendw $-86, %ymm2, %ymm4, %ymm12 vpsrld $16, %ymm4, %ymm2 vpblendw $-86, %ymm5, %ymm2, %ymm13 vmovdqu 584(%rsi), %ymm2 vmovdqu 616(%rsi), %ymm5 vpsubw %ymm7, %ymm6, %ymm15 vpsubw %ymm11, %ymm10, %ymm3 vpsubw %ymm9, %ymm8, %ymm4 vpaddw %ymm6, %ymm7, %ymm6 vpaddw %ymm10, %ymm11, %ymm7 vpmullw %ymm15, %ymm2, %ymm10 vpaddw %ymm8, %ymm9, %ymm8 vpmullw %ymm3, %ymm2, %ymm9 vpsubw %ymm13, %ymm12, %ymm11 vpaddw %ymm12, %ymm13, %ymm12 vpmullw %ymm4, %ymm2, %ymm13 vpmullw %ymm11, %ymm2, %ymm14 vpmulhw %ymm15, %ymm5, %ymm2 vpmulhw %ymm3, %ymm5, %ymm3 vpmulhw %ymm4, %ymm5, %ymm4 vpmulhw %ymm11, %ymm5, %ymm5 vpmulhw %ymm10, %ymm0, %ymm10 vpmulhw %ymm9, %ymm0, %ymm11 vpmulhw %ymm13, %ymm0, %ymm13 vpmulhw %ymm14, %ymm0, %ymm9 vpsubw %ymm10, %ymm2, %ymm2 vpsubw %ymm11, %ymm3, %ymm3 vpsubw %ymm13, %ymm4, %ymm4 vpsubw %ymm9, %ymm5, %ymm5 vpmulhw %ymm1, %ymm6, %ymm9 vpsraw $10, %ymm9, %ymm9 vpmullw %ymm0, %ymm9, %ymm9 vpsubw %ymm9, %ymm6, %ymm6 vmovsldup %ymm7, %ymm9 vpblendd $-86, %ymm9, %ymm6, %ymm9 vpsrlq $32, %ymm6, %ymm6 vpblendd $-86, %ymm7, %ymm6, %ymm10 vmovsldup %ymm12, %ymm6 vpblendd $-86, %ymm6, %ymm8, %ymm11 vpsrlq $32, %ymm8, %ymm6 vpblendd $-86, %ymm12, %ymm6, %ymm14 vmovsldup %ymm3, %ymm6 vpblendd $-86, %ymm6, %ymm2, %ymm12 vpsrlq $32, %ymm2, %ymm2 vpblendd $-86, %ymm3, %ymm2, %ymm13 vmovsldup %ymm5, %ymm2 vpblendd $-86, %ymm2, %ymm4, %ymm2 vpsrlq $32, %ymm4, %ymm3 vpblendd $-86, %ymm5, %ymm3, %ymm3 vmovdqu 648(%rsi), %ymm4 vmovdqu 680(%rsi), %ymm5 vpsubw %ymm10, %ymm9, %ymm6 vpsubw %ymm14, %ymm11, %ymm7 vpsubw %ymm13, %ymm12, %ymm8 vpaddw %ymm9, %ymm10, %ymm9 vpaddw %ymm11, %ymm14, %ymm10 vpmullw %ymm6, %ymm4, %ymm11 vpaddw %ymm12, %ymm13, %ymm12 vpmullw %ymm7, %ymm4, %ymm13 vpsubw %ymm3, %ymm2, %ymm14 vpaddw %ymm2, %ymm3, %ymm2 vpmullw %ymm8, %ymm4, %ymm3 vpmullw %ymm14, %ymm4, %ymm4 vpmulhw %ymm6, %ymm5, %ymm6 vpmulhw %ymm7, %ymm5, %ymm7 vpmulhw %ymm8, %ymm5, %ymm8 vpmulhw %ymm14, %ymm5, %ymm5 vpmulhw %ymm11, %ymm0, %ymm11 vpmulhw %ymm13, %ymm0, %ymm13 vpmulhw %ymm3, %ymm0, %ymm3 vpmulhw %ymm4, %ymm0, %ymm4 vpsubw %ymm11, %ymm6, %ymm6 vpsubw %ymm13, %ymm7, %ymm7 vpsubw %ymm3, %ymm8, %ymm3 vpsubw %ymm4, %ymm5, %ymm4 vpmulhw %ymm1, %ymm9, %ymm5 vpsraw $10, %ymm5, %ymm5 vpmullw %ymm0, %ymm5, %ymm5 vpsubw %ymm5, %ymm9, %ymm8 vpunpcklqdq %ymm10, %ymm8, %ymm5 vpunpckhqdq %ymm10, %ymm8, %ymm8 vpunpcklqdq %ymm2, %ymm12, %ymm9 vpunpckhqdq %ymm2, %ymm12, %ymm2 vpunpcklqdq %ymm7, %ymm6, %ymm10 vpunpckhqdq %ymm7, %ymm6, %ymm6 vpunpcklqdq %ymm4, %ymm3, %ymm7 vpunpckhqdq %ymm4, %ymm3, %ymm3 vmovdqu 712(%rsi), %ymm4 vmovdqu 744(%rsi), %ymm11 vpsubw %ymm8, %ymm5, %ymm12 vpsubw %ymm2, %ymm9, %ymm13 vpsubw %ymm6, %ymm10, %ymm14 vpaddw %ymm5, %ymm8, %ymm5 vpaddw %ymm9, %ymm2, %ymm2 vpmullw %ymm12, %ymm4, %ymm8 vpaddw %ymm10, %ymm6, %ymm6 vpmullw %ymm13, %ymm4, %ymm9 vpsubw %ymm3, %ymm7, %ymm10 vpaddw %ymm7, %ymm3, %ymm3 vpmullw %ymm14, %ymm4, %ymm7 vpmullw %ymm10, %ymm4, %ymm4 vpmulhw %ymm12, %ymm11, %ymm12 vpmulhw %ymm13, %ymm11, %ymm13 vpmulhw %ymm14, %ymm11, %ymm14 vpmulhw %ymm10, %ymm11, %ymm10 vpmulhw %ymm8, %ymm0, %ymm8 vpmulhw %ymm9, %ymm0, %ymm9 vpmulhw %ymm7, %ymm0, %ymm7 vpmulhw %ymm4, %ymm0, %ymm4 vpsubw %ymm8, %ymm12, %ymm8 vpsubw %ymm9, %ymm13, %ymm9 vpsubw %ymm7, %ymm14, %ymm7 vpsubw %ymm4, %ymm10, %ymm4 vpmulhw %ymm1, %ymm5, %ymm10 vpsraw $10, %ymm10, %ymm10 vpmullw %ymm0, %ymm10, %ymm10 vpsubw %ymm10, %ymm5, %ymm10 vperm2i128 $32, %ymm2, %ymm10, %ymm5 vperm2i128 $49, %ymm2, %ymm10, %ymm2 vperm2i128 $32, %ymm3, %ymm6, %ymm10 vperm2i128 $49, %ymm3, %ymm6, %ymm3 vperm2i128 $32, %ymm9, %ymm8, %ymm6 vperm2i128 $49, %ymm9, %ymm8, %ymm8 vperm2i128 $32, %ymm4, %ymm7, %ymm9 vperm2i128 $49, %ymm4, %ymm7, %ymm4 vpbroadcastd 776(%rsi), %ymm7 vpbroadcastd 780(%rsi), %ymm11 vpsubw %ymm2, %ymm5, %ymm12 vpsubw %ymm3, %ymm10, %ymm13 vpsubw %ymm8, %ymm6, %ymm14 vpaddw %ymm5, %ymm2, %ymm2 vpaddw %ymm10, %ymm3, %ymm3 vpmullw %ymm12, %ymm7, %ymm5 vpaddw %ymm6, %ymm8, %ymm6 vpmullw %ymm13, %ymm7, %ymm8 vpsubw %ymm4, %ymm9, %ymm10 vpaddw %ymm9, %ymm4, %ymm4 vpmullw %ymm14, %ymm7, %ymm9 vpmullw %ymm10, %ymm7, %ymm7 vpmulhw %ymm12, %ymm11, %ymm12 vpmulhw %ymm13, %ymm11, %ymm13 vpmulhw %ymm14, %ymm11, %ymm14 vpmulhw %ymm10, %ymm11, %ymm10 vpmulhw %ymm5, %ymm0, %ymm5 vpmulhw %ymm8, %ymm0, %ymm8 vpmulhw %ymm9, %ymm0, %ymm9 vpmulhw %ymm7, %ymm0, %ymm7 vpsubw %ymm5, %ymm12, %ymm5 vpsubw %ymm8, %ymm13, %ymm8 vpsubw %ymm9, %ymm14, %ymm9 vpsubw %ymm7, %ymm10, %ymm7 vpmulhw %ymm1, %ymm2, %ymm1 vpsraw $10, %ymm1, %ymm1 vpmullw %ymm0, %ymm1, %ymm1 vpsubw %ymm1, %ymm2, %ymm10 vmovdqu %ymm5, 384(%rcx) vmovdqu %ymm8, 416(%rcx) vmovdqu %ymm9, 448(%rcx) vmovdqu %ymm7, 480(%rcx) vpbroadcastd 784(%rsi), %ymm1 vpbroadcastd 788(%rsi), %ymm2 vmovdqu %ymm4, %ymm7 vmovdqu %ymm3, %ymm4 vmovdqu %ymm10, %ymm3 vmovdqu (%rcx), %ymm9 vmovdqu 32(%rcx), %ymm13 vmovdqu 64(%rcx), %ymm5 vmovdqu 96(%rcx), %ymm8 vpsubw %ymm3, %ymm9, %ymm10 vpsubw %ymm4, %ymm13, %ymm11 vpsubw %ymm6, %ymm5, %ymm12 vpaddw %ymm9, %ymm3, %ymm3 vpaddw %ymm13, %ymm4, %ymm4 vpmullw %ymm10, %ymm1, %ymm13 vpaddw %ymm5, %ymm6, %ymm5 vpmullw %ymm11, %ymm1, %ymm6 vpsubw %ymm7, %ymm8, %ymm14 vpaddw %ymm8, %ymm7, %ymm7 vpmullw %ymm12, %ymm1, %ymm8 vpmullw %ymm14, %ymm1, %ymm9 vpmulhw %ymm10, %ymm2, %ymm10 vpmulhw %ymm11, %ymm2, %ymm11 vpmulhw %ymm12, %ymm2, %ymm12 vpmulhw %ymm14, %ymm2, %ymm14 vpmulhw %ymm13, %ymm0, %ymm13 vpmulhw %ymm6, %ymm0, %ymm6 vpmulhw %ymm8, %ymm0, %ymm8 vpmulhw %ymm9, %ymm0, %ymm9 vpsubw %ymm13, %ymm10, %ymm10 vpsubw %ymm6, %ymm11, %ymm6 vpsubw %ymm8, %ymm12, %ymm11 vpsubw %ymm9, %ymm14, %ymm12 vmovdqu glob_data + 320(%rip), %ymm8 vmovdqu glob_data + 352(%rip), %ymm9 vmovdqu %ymm10, 256(%rcx) vmovdqu %ymm6, 288(%rcx) vmovdqu %ymm11, 320(%rcx) vmovdqu %ymm12, 352(%rcx) vpmullw %ymm3, %ymm8, %ymm6 vpmulhw %ymm3, %ymm9, %ymm3 vpmulhw %ymm0, %ymm6, %ymm6 vpsubw %ymm6, %ymm3, %ymm3 vpmullw %ymm4, %ymm8, %ymm6 vpmulhw %ymm4, %ymm9, %ymm4 vpmulhw %ymm0, %ymm6, %ymm6 vpsubw %ymm6, %ymm4, %ymm4 vpmullw %ymm5, %ymm8, %ymm6 vpmulhw %ymm5, %ymm9, %ymm5 vpmulhw %ymm0, %ymm6, %ymm6 vpsubw %ymm6, %ymm5, %ymm5 vpmullw %ymm7, %ymm8, %ymm6 vpmulhw %ymm7, %ymm9, %ymm7 vpmulhw %ymm0, %ymm6, %ymm6 vpsubw %ymm6, %ymm7, %ymm6 vmovdqu %ymm3, (%rcx) vmovdqu %ymm4, 32(%rcx) vmovdqu %ymm5, 64(%rcx) vmovdqu %ymm6, 96(%rcx) vmovdqu 384(%rcx), %ymm4 vmovdqu 416(%rcx), %ymm5 vmovdqu 448(%rcx), %ymm7 vmovdqu 480(%rcx), %ymm10 vmovdqu 128(%rcx), %ymm6 vmovdqu 160(%rcx), %ymm9 vmovdqu 192(%rcx), %ymm8 vmovdqu 224(%rcx), %ymm11 vpsubw %ymm4, %ymm6, %ymm12 vpsubw %ymm5, %ymm9, %ymm13 vpsubw %ymm7, %ymm8, %ymm3 vpaddw %ymm6, %ymm4, %ymm4 vpaddw %ymm9, %ymm5, %ymm5 vpmullw %ymm12, %ymm1, %ymm6 vpaddw %ymm8, %ymm7, %ymm7 vpmullw %ymm13, %ymm1, %ymm8 vpsubw %ymm10, %ymm11, %ymm9 vpaddw %ymm11, %ymm10, %ymm10 vpmullw %ymm3, %ymm1, %ymm11 vpmullw %ymm9, %ymm1, %ymm1 vpmulhw %ymm12, %ymm2, %ymm12 vpmulhw %ymm13, %ymm2, %ymm13 vpmulhw %ymm3, %ymm2, %ymm3 vpmulhw %ymm9, %ymm2, %ymm2 vpmulhw %ymm6, %ymm0, %ymm6 vpmulhw %ymm8, %ymm0, %ymm8 vpmulhw %ymm11, %ymm0, %ymm9 vpmulhw %ymm1, %ymm0, %ymm11 vpsubw %ymm6, %ymm12, %ymm1 vpsubw %ymm8, %ymm13, %ymm6 vpsubw %ymm9, %ymm3, %ymm8 vpsubw %ymm11, %ymm2, %ymm9 vmovdqu glob_data + 320(%rip), %ymm2 vmovdqu glob_data + 352(%rip), %ymm3 vmovdqu %ymm1, 384(%rcx) vmovdqu %ymm6, 416(%rcx) vmovdqu %ymm8, 448(%rcx) vmovdqu %ymm9, 480(%rcx) vpmullw %ymm4, %ymm2, %ymm1 vpmulhw %ymm4, %ymm3, %ymm4 vpmulhw %ymm0, %ymm1, %ymm1 vpsubw %ymm1, %ymm4, %ymm1 vpmullw %ymm5, %ymm2, %ymm4 vpmulhw %ymm5, %ymm3, %ymm5 vpmulhw %ymm0, %ymm4, %ymm4 vpsubw %ymm4, %ymm5, %ymm4 vpmullw %ymm7, %ymm2, %ymm5 vpmulhw %ymm7, %ymm3, %ymm6 vpmulhw %ymm0, %ymm5, %ymm5 vpsubw %ymm5, %ymm6, %ymm5 vpmullw %ymm10, %ymm2, %ymm2 vpmulhw %ymm10, %ymm3, %ymm3 vpmulhw %ymm0, %ymm2, %ymm0 vpsubw %ymm0, %ymm3, %ymm0 vmovdqu %ymm1, 128(%rcx) vmovdqu %ymm4, 160(%rcx) vmovdqu %ymm5, 192(%rcx) vmovdqu %ymm0, 224(%rcx) jmp *%rdi L_poly_getnoise_eta1122_4x$1: movq %rax, 1440(%rsp) vmovdqu (%rcx), %ymm0 vmovdqu %ymm0, (%rsp) vmovdqu %ymm0, 160(%rsp) vmovdqu %ymm0, 320(%rsp) vmovdqu %ymm0, 480(%rsp) movb %dl, 32(%rsp) incb %dl movb %dl, 192(%rsp) incb %dl movb %dl, 352(%rsp) incb %dl movb %dl, 512(%rsp) leaq 640(%rsp), %rax movq %rsp, %rcx leaq 160(%rsp), %rdx leaq 320(%rsp), %rsi leaq 480(%rsp), %r11 leaq -8(%rsp), %rsp leaq L_poly_getnoise_eta1122_4x$3(%rip), %r10 movq %r10, (%rsp) jmp L_shake256_absorb4x_33$1 L_poly_getnoise_eta1122_4x$3: leaq 8(%rsp), %rsp leaq 640(%rsp), %rax movq %rsp, %rcx leaq 160(%rsp), %rdx leaq 320(%rsp), %rsi leaq 480(%rsp), %r10 movq %rcx, %r11 movq %rdx, %rbx movq %rsi, %rbp leaq -832(%rsp), %rsp leaq L_poly_getnoise_eta1122_4x$2(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L_poly_getnoise_eta1122_4x$2: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r11) vmovhpd %xmm1, (%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbp) vmovhpd %xmm0, (%r10) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r11) vmovhpd %xmm1, 8(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbp) vmovhpd %xmm0, 8(%r10) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r11) vmovhpd %xmm1, 16(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbp) vmovhpd %xmm0, 16(%r10) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r11) vmovhpd %xmm1, 24(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbp) vmovhpd %xmm0, 24(%r10) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r11) vmovhpd %xmm1, 32(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbp) vmovhpd %xmm0, 32(%r10) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r11) vmovhpd %xmm1, 40(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbp) vmovhpd %xmm0, 40(%r10) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r11) vmovhpd %xmm1, 48(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbp) vmovhpd %xmm0, 48(%r10) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r11) vmovhpd %xmm1, 56(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbp) vmovhpd %xmm0, 56(%r10) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r11) vmovhpd %xmm1, 64(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbp) vmovhpd %xmm0, 64(%r10) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r11) vmovhpd %xmm1, 72(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbp) vmovhpd %xmm0, 72(%r10) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r11) vmovhpd %xmm1, 80(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbp) vmovhpd %xmm0, 80(%r10) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r11) vmovhpd %xmm1, 88(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbp) vmovhpd %xmm0, 88(%r10) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r11) vmovhpd %xmm1, 96(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbp) vmovhpd %xmm0, 96(%r10) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r11) vmovhpd %xmm1, 104(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbp) vmovhpd %xmm0, 104(%r10) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r11) vmovhpd %xmm1, 112(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbp) vmovhpd %xmm0, 112(%r10) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r11) vmovhpd %xmm1, 120(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbp) vmovhpd %xmm0, 120(%r10) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r11) vmovhpd %xmm1, 128(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbp) vmovhpd %xmm0, 128(%r10) movq 1440(%rsp), %rax movq %rsp, %rcx movl $1431655765, 1448(%rsp) movl $858993459, 1452(%rsp) movl $50529027, 1456(%rsp) movl $252645135, 1460(%rsp) vpbroadcastd 1448(%rsp), %ymm0 vpbroadcastd 1452(%rsp), %ymm1 vpbroadcastd 1456(%rsp), %ymm2 vpbroadcastd 1460(%rsp), %ymm3 vmovdqu (%rcx), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, (%rax) vmovdqu %ymm7, 32(%rax) vmovdqu %ymm6, 64(%rax) vmovdqu %ymm4, 96(%rax) vmovdqu 32(%rcx), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 128(%rax) vmovdqu %ymm7, 160(%rax) vmovdqu %ymm6, 192(%rax) vmovdqu %ymm4, 224(%rax) vmovdqu 64(%rcx), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 256(%rax) vmovdqu %ymm7, 288(%rax) vmovdqu %ymm6, 320(%rax) vmovdqu %ymm4, 352(%rax) vmovdqu 96(%rcx), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm0 vpaddb %ymm0, %ymm4, %ymm0 vpsrlw $2, %ymm0, %ymm4 vpand %ymm0, %ymm1, %ymm0 vpand %ymm4, %ymm1, %ymm4 vpaddb %ymm1, %ymm0, %ymm0 vpsubb %ymm4, %ymm0, %ymm0 vpsrlw $4, %ymm0, %ymm1 vpand %ymm0, %ymm3, %ymm0 vpand %ymm1, %ymm3, %ymm1 vpsubb %ymm2, %ymm0, %ymm0 vpsubb %ymm2, %ymm1, %ymm1 vpunpcklbw %ymm1, %ymm0, %ymm2 vpunpckhbw %ymm1, %ymm0, %ymm0 vmovdqu %xmm2, %xmm1 vpmovsxbw %xmm1, %ymm1 vextracti128 $1, %ymm2, %xmm2 vpmovsxbw %xmm2, %ymm2 vmovdqu %xmm0, %xmm3 vpmovsxbw %xmm3, %ymm3 vextracti128 $1, %ymm0, %xmm0 vpmovsxbw %xmm0, %ymm0 vmovdqu %ymm1, 384(%rax) vmovdqu %ymm3, 416(%rax) vmovdqu %ymm2, 448(%rax) vmovdqu %ymm0, 480(%rax) leaq 160(%rsp), %rax movl $1431655765, 1460(%rsp) movl $858993459, 1456(%rsp) movl $50529027, 1452(%rsp) movl $252645135, 1448(%rsp) vpbroadcastd 1460(%rsp), %ymm0 vpbroadcastd 1456(%rsp), %ymm1 vpbroadcastd 1452(%rsp), %ymm2 vpbroadcastd 1448(%rsp), %ymm3 vmovdqu (%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, (%rdi) vmovdqu %ymm7, 32(%rdi) vmovdqu %ymm6, 64(%rdi) vmovdqu %ymm4, 96(%rdi) vmovdqu 32(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 128(%rdi) vmovdqu %ymm7, 160(%rdi) vmovdqu %ymm6, 192(%rdi) vmovdqu %ymm4, 224(%rdi) vmovdqu 64(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 256(%rdi) vmovdqu %ymm7, 288(%rdi) vmovdqu %ymm6, 320(%rdi) vmovdqu %ymm4, 352(%rdi) vmovdqu 96(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm0 vpaddb %ymm0, %ymm4, %ymm0 vpsrlw $2, %ymm0, %ymm4 vpand %ymm0, %ymm1, %ymm0 vpand %ymm4, %ymm1, %ymm4 vpaddb %ymm1, %ymm0, %ymm0 vpsubb %ymm4, %ymm0, %ymm0 vpsrlw $4, %ymm0, %ymm1 vpand %ymm0, %ymm3, %ymm0 vpand %ymm1, %ymm3, %ymm1 vpsubb %ymm2, %ymm0, %ymm0 vpsubb %ymm2, %ymm1, %ymm1 vpunpcklbw %ymm1, %ymm0, %ymm2 vpunpckhbw %ymm1, %ymm0, %ymm0 vmovdqu %xmm2, %xmm1 vpmovsxbw %xmm1, %ymm1 vextracti128 $1, %ymm2, %xmm2 vpmovsxbw %xmm2, %ymm2 vmovdqu %xmm0, %xmm3 vpmovsxbw %xmm3, %ymm3 vextracti128 $1, %ymm0, %xmm0 vpmovsxbw %xmm0, %ymm0 vmovdqu %ymm1, 384(%rdi) vmovdqu %ymm3, 416(%rdi) vmovdqu %ymm2, 448(%rdi) vmovdqu %ymm0, 480(%rdi) leaq 320(%rsp), %rax movl $1431655765, 1448(%rsp) movl $858993459, 1452(%rsp) movl $50529027, 1456(%rsp) movl $252645135, 1460(%rsp) vpbroadcastd 1448(%rsp), %ymm0 vpbroadcastd 1452(%rsp), %ymm1 vpbroadcastd 1456(%rsp), %ymm2 vpbroadcastd 1460(%rsp), %ymm3 vmovdqu (%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, (%r8) vmovdqu %ymm7, 32(%r8) vmovdqu %ymm6, 64(%r8) vmovdqu %ymm4, 96(%r8) vmovdqu 32(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 128(%r8) vmovdqu %ymm7, 160(%r8) vmovdqu %ymm6, 192(%r8) vmovdqu %ymm4, 224(%r8) vmovdqu 64(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 256(%r8) vmovdqu %ymm7, 288(%r8) vmovdqu %ymm6, 320(%r8) vmovdqu %ymm4, 352(%r8) vmovdqu 96(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm0 vpaddb %ymm0, %ymm4, %ymm0 vpsrlw $2, %ymm0, %ymm4 vpand %ymm0, %ymm1, %ymm0 vpand %ymm4, %ymm1, %ymm4 vpaddb %ymm1, %ymm0, %ymm0 vpsubb %ymm4, %ymm0, %ymm0 vpsrlw $4, %ymm0, %ymm1 vpand %ymm0, %ymm3, %ymm0 vpand %ymm1, %ymm3, %ymm1 vpsubb %ymm2, %ymm0, %ymm0 vpsubb %ymm2, %ymm1, %ymm1 vpunpcklbw %ymm1, %ymm0, %ymm2 vpunpckhbw %ymm1, %ymm0, %ymm0 vmovdqu %xmm2, %xmm1 vpmovsxbw %xmm1, %ymm1 vextracti128 $1, %ymm2, %xmm2 vpmovsxbw %xmm2, %ymm2 vmovdqu %xmm0, %xmm3 vpmovsxbw %xmm3, %ymm3 vextracti128 $1, %ymm0, %xmm0 vpmovsxbw %xmm0, %ymm0 vmovdqu %ymm1, 384(%r8) vmovdqu %ymm3, 416(%r8) vmovdqu %ymm2, 448(%r8) vmovdqu %ymm0, 480(%r8) leaq 480(%rsp), %rax movl $1431655765, 1460(%rsp) movl $858993459, 1456(%rsp) movl $50529027, 1452(%rsp) movl $252645135, 1448(%rsp) vpbroadcastd 1460(%rsp), %ymm0 vpbroadcastd 1456(%rsp), %ymm1 vpbroadcastd 1452(%rsp), %ymm2 vpbroadcastd 1448(%rsp), %ymm3 vmovdqu (%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, (%r9) vmovdqu %ymm7, 32(%r9) vmovdqu %ymm6, 64(%r9) vmovdqu %ymm4, 96(%r9) vmovdqu 32(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 128(%r9) vmovdqu %ymm7, 160(%r9) vmovdqu %ymm6, 192(%r9) vmovdqu %ymm4, 224(%r9) vmovdqu 64(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 256(%r9) vmovdqu %ymm7, 288(%r9) vmovdqu %ymm6, 320(%r9) vmovdqu %ymm4, 352(%r9) vmovdqu 96(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm0 vpaddb %ymm0, %ymm4, %ymm0 vpsrlw $2, %ymm0, %ymm4 vpand %ymm0, %ymm1, %ymm0 vpand %ymm4, %ymm1, %ymm4 vpaddb %ymm1, %ymm0, %ymm0 vpsubb %ymm4, %ymm0, %ymm0 vpsrlw $4, %ymm0, %ymm1 vpand %ymm0, %ymm3, %ymm0 vpand %ymm1, %ymm3, %ymm1 vpsubb %ymm2, %ymm0, %ymm0 vpsubb %ymm2, %ymm1, %ymm1 vpunpcklbw %ymm1, %ymm0, %ymm2 vpunpckhbw %ymm1, %ymm0, %ymm0 vmovdqu %xmm2, %xmm1 vpmovsxbw %xmm1, %ymm1 vextracti128 $1, %ymm2, %xmm2 vpmovsxbw %xmm2, %ymm2 vmovdqu %xmm0, %xmm3 vpmovsxbw %xmm3, %ymm3 vextracti128 $1, %ymm0, %xmm0 vpmovsxbw %xmm0, %ymm0 vmovdqu %ymm1, 384(%r9) vmovdqu %ymm3, 416(%r9) vmovdqu %ymm2, 448(%r9) vmovdqu %ymm0, 480(%r9) jmp *1464(%rsp) L_poly_getnoise_eta1_4x$1: movq %rax, 1440(%rsp) vmovdqu (%r10), %ymm0 vmovdqu %ymm0, (%rsp) vmovdqu %ymm0, 160(%rsp) vmovdqu %ymm0, 320(%rsp) vmovdqu %ymm0, 480(%rsp) movb %cl, 32(%rsp) incb %cl movb %cl, 192(%rsp) incb %cl movb %cl, 352(%rsp) incb %cl movb %cl, 512(%rsp) leaq 640(%rsp), %rax movq %rsp, %rcx leaq 160(%rsp), %rdx leaq 320(%rsp), %rsi leaq 480(%rsp), %r11 leaq -8(%rsp), %rsp leaq L_poly_getnoise_eta1_4x$3(%rip), %rbx movq %rbx, (%rsp) jmp L_shake256_absorb4x_33$1 L_poly_getnoise_eta1_4x$3: leaq 8(%rsp), %rsp leaq 640(%rsp), %rax movq %rsp, %r11 leaq 160(%rsp), %rcx leaq 320(%rsp), %rdx leaq 480(%rsp), %rsi movq %rcx, %rbx movq %rdx, %rbp movq %rsi, %r12 leaq -832(%rsp), %rsp leaq L_poly_getnoise_eta1_4x$2(%rip), %rcx movq %rcx, 800(%rsp) jmp L_keccakf1600_4x_avx2$1 L_poly_getnoise_eta1_4x$2: leaq 832(%rsp), %rsp vmovdqu (%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, (%r11) vmovhpd %xmm1, (%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, (%rbp) vmovhpd %xmm0, (%r12) vmovdqu 32(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 8(%r11) vmovhpd %xmm1, 8(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rbp) vmovhpd %xmm0, 8(%r12) vmovdqu 64(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 16(%r11) vmovhpd %xmm1, 16(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 16(%rbp) vmovhpd %xmm0, 16(%r12) vmovdqu 96(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 24(%r11) vmovhpd %xmm1, 24(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 24(%rbp) vmovhpd %xmm0, 24(%r12) vmovdqu 128(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 32(%r11) vmovhpd %xmm1, 32(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rbp) vmovhpd %xmm0, 32(%r12) vmovdqu 160(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 40(%r11) vmovhpd %xmm1, 40(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rbp) vmovhpd %xmm0, 40(%r12) vmovdqu 192(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 48(%r11) vmovhpd %xmm1, 48(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rbp) vmovhpd %xmm0, 48(%r12) vmovdqu 224(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 56(%r11) vmovhpd %xmm1, 56(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 56(%rbp) vmovhpd %xmm0, 56(%r12) vmovdqu 256(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 64(%r11) vmovhpd %xmm1, 64(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rbp) vmovhpd %xmm0, 64(%r12) vmovdqu 288(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 72(%r11) vmovhpd %xmm1, 72(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rbp) vmovhpd %xmm0, 72(%r12) vmovdqu 320(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 80(%r11) vmovhpd %xmm1, 80(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 80(%rbp) vmovhpd %xmm0, 80(%r12) vmovdqu 352(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 88(%r11) vmovhpd %xmm1, 88(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 88(%rbp) vmovhpd %xmm0, 88(%r12) vmovdqu 384(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 96(%r11) vmovhpd %xmm1, 96(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rbp) vmovhpd %xmm0, 96(%r12) vmovdqu 416(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 104(%r11) vmovhpd %xmm1, 104(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%rbp) vmovhpd %xmm0, 104(%r12) vmovdqu 448(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 112(%r11) vmovhpd %xmm1, 112(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rbp) vmovhpd %xmm0, 112(%r12) vmovdqu 480(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 120(%r11) vmovhpd %xmm1, 120(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 120(%rbp) vmovhpd %xmm0, 120(%r12) vmovdqu 512(%rax), %ymm0 vmovdqu %xmm0, %xmm1 vmovlpd %xmm1, 128(%r11) vmovhpd %xmm1, 128(%rbx) vextracti128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 128(%rbp) vmovhpd %xmm0, 128(%r12) movq 1440(%rsp), %rax movq %rsp, %rcx movl $1431655765, 1448(%rsp) movl $858993459, 1452(%rsp) movl $50529027, 1456(%rsp) movl $252645135, 1460(%rsp) vpbroadcastd 1448(%rsp), %ymm0 vpbroadcastd 1452(%rsp), %ymm1 vpbroadcastd 1456(%rsp), %ymm2 vpbroadcastd 1460(%rsp), %ymm3 vmovdqu (%rcx), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, (%rax) vmovdqu %ymm7, 32(%rax) vmovdqu %ymm6, 64(%rax) vmovdqu %ymm4, 96(%rax) vmovdqu 32(%rcx), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 128(%rax) vmovdqu %ymm7, 160(%rax) vmovdqu %ymm6, 192(%rax) vmovdqu %ymm4, 224(%rax) vmovdqu 64(%rcx), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 256(%rax) vmovdqu %ymm7, 288(%rax) vmovdqu %ymm6, 320(%rax) vmovdqu %ymm4, 352(%rax) vmovdqu 96(%rcx), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm0 vpaddb %ymm0, %ymm4, %ymm0 vpsrlw $2, %ymm0, %ymm4 vpand %ymm0, %ymm1, %ymm0 vpand %ymm4, %ymm1, %ymm4 vpaddb %ymm1, %ymm0, %ymm0 vpsubb %ymm4, %ymm0, %ymm0 vpsrlw $4, %ymm0, %ymm1 vpand %ymm0, %ymm3, %ymm0 vpand %ymm1, %ymm3, %ymm1 vpsubb %ymm2, %ymm0, %ymm0 vpsubb %ymm2, %ymm1, %ymm1 vpunpcklbw %ymm1, %ymm0, %ymm2 vpunpckhbw %ymm1, %ymm0, %ymm0 vmovdqu %xmm2, %xmm1 vpmovsxbw %xmm1, %ymm1 vextracti128 $1, %ymm2, %xmm2 vpmovsxbw %xmm2, %ymm2 vmovdqu %xmm0, %xmm3 vpmovsxbw %xmm3, %ymm3 vextracti128 $1, %ymm0, %xmm0 vpmovsxbw %xmm0, %ymm0 vmovdqu %ymm1, 384(%rax) vmovdqu %ymm3, 416(%rax) vmovdqu %ymm2, 448(%rax) vmovdqu %ymm0, 480(%rax) leaq 160(%rsp), %rax movl $1431655765, 1460(%rsp) movl $858993459, 1456(%rsp) movl $50529027, 1452(%rsp) movl $252645135, 1448(%rsp) vpbroadcastd 1460(%rsp), %ymm0 vpbroadcastd 1456(%rsp), %ymm1 vpbroadcastd 1452(%rsp), %ymm2 vpbroadcastd 1448(%rsp), %ymm3 vmovdqu (%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, (%rdi) vmovdqu %ymm7, 32(%rdi) vmovdqu %ymm6, 64(%rdi) vmovdqu %ymm4, 96(%rdi) vmovdqu 32(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 128(%rdi) vmovdqu %ymm7, 160(%rdi) vmovdqu %ymm6, 192(%rdi) vmovdqu %ymm4, 224(%rdi) vmovdqu 64(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 256(%rdi) vmovdqu %ymm7, 288(%rdi) vmovdqu %ymm6, 320(%rdi) vmovdqu %ymm4, 352(%rdi) vmovdqu 96(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm0 vpaddb %ymm0, %ymm4, %ymm0 vpsrlw $2, %ymm0, %ymm4 vpand %ymm0, %ymm1, %ymm0 vpand %ymm4, %ymm1, %ymm4 vpaddb %ymm1, %ymm0, %ymm0 vpsubb %ymm4, %ymm0, %ymm0 vpsrlw $4, %ymm0, %ymm1 vpand %ymm0, %ymm3, %ymm0 vpand %ymm1, %ymm3, %ymm1 vpsubb %ymm2, %ymm0, %ymm0 vpsubb %ymm2, %ymm1, %ymm1 vpunpcklbw %ymm1, %ymm0, %ymm2 vpunpckhbw %ymm1, %ymm0, %ymm0 vmovdqu %xmm2, %xmm1 vpmovsxbw %xmm1, %ymm1 vextracti128 $1, %ymm2, %xmm2 vpmovsxbw %xmm2, %ymm2 vmovdqu %xmm0, %xmm3 vpmovsxbw %xmm3, %ymm3 vextracti128 $1, %ymm0, %xmm0 vpmovsxbw %xmm0, %ymm0 vmovdqu %ymm1, 384(%rdi) vmovdqu %ymm3, 416(%rdi) vmovdqu %ymm2, 448(%rdi) vmovdqu %ymm0, 480(%rdi) leaq 320(%rsp), %rax movl $1431655765, 1448(%rsp) movl $858993459, 1452(%rsp) movl $50529027, 1456(%rsp) movl $252645135, 1460(%rsp) vpbroadcastd 1448(%rsp), %ymm0 vpbroadcastd 1452(%rsp), %ymm1 vpbroadcastd 1456(%rsp), %ymm2 vpbroadcastd 1460(%rsp), %ymm3 vmovdqu (%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, (%r8) vmovdqu %ymm7, 32(%r8) vmovdqu %ymm6, 64(%r8) vmovdqu %ymm4, 96(%r8) vmovdqu 32(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 128(%r8) vmovdqu %ymm7, 160(%r8) vmovdqu %ymm6, 192(%r8) vmovdqu %ymm4, 224(%r8) vmovdqu 64(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 256(%r8) vmovdqu %ymm7, 288(%r8) vmovdqu %ymm6, 320(%r8) vmovdqu %ymm4, 352(%r8) vmovdqu 96(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm0 vpaddb %ymm0, %ymm4, %ymm0 vpsrlw $2, %ymm0, %ymm4 vpand %ymm0, %ymm1, %ymm0 vpand %ymm4, %ymm1, %ymm4 vpaddb %ymm1, %ymm0, %ymm0 vpsubb %ymm4, %ymm0, %ymm0 vpsrlw $4, %ymm0, %ymm1 vpand %ymm0, %ymm3, %ymm0 vpand %ymm1, %ymm3, %ymm1 vpsubb %ymm2, %ymm0, %ymm0 vpsubb %ymm2, %ymm1, %ymm1 vpunpcklbw %ymm1, %ymm0, %ymm2 vpunpckhbw %ymm1, %ymm0, %ymm0 vmovdqu %xmm2, %xmm1 vpmovsxbw %xmm1, %ymm1 vextracti128 $1, %ymm2, %xmm2 vpmovsxbw %xmm2, %ymm2 vmovdqu %xmm0, %xmm3 vpmovsxbw %xmm3, %ymm3 vextracti128 $1, %ymm0, %xmm0 vpmovsxbw %xmm0, %ymm0 vmovdqu %ymm1, 384(%r8) vmovdqu %ymm3, 416(%r8) vmovdqu %ymm2, 448(%r8) vmovdqu %ymm0, 480(%r8) leaq 480(%rsp), %rax movl $1431655765, 1460(%rsp) movl $858993459, 1456(%rsp) movl $50529027, 1452(%rsp) movl $252645135, 1448(%rsp) vpbroadcastd 1460(%rsp), %ymm0 vpbroadcastd 1456(%rsp), %ymm1 vpbroadcastd 1452(%rsp), %ymm2 vpbroadcastd 1448(%rsp), %ymm3 vmovdqu (%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, (%r9) vmovdqu %ymm7, 32(%r9) vmovdqu %ymm6, 64(%r9) vmovdqu %ymm4, 96(%r9) vmovdqu 32(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 128(%r9) vmovdqu %ymm7, 160(%r9) vmovdqu %ymm6, 192(%r9) vmovdqu %ymm4, 224(%r9) vmovdqu 64(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 256(%r9) vmovdqu %ymm7, 288(%r9) vmovdqu %ymm6, 320(%r9) vmovdqu %ymm4, 352(%r9) vmovdqu 96(%rax), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm0 vpaddb %ymm0, %ymm4, %ymm0 vpsrlw $2, %ymm0, %ymm4 vpand %ymm0, %ymm1, %ymm0 vpand %ymm4, %ymm1, %ymm4 vpaddb %ymm1, %ymm0, %ymm0 vpsubb %ymm4, %ymm0, %ymm0 vpsrlw $4, %ymm0, %ymm1 vpand %ymm0, %ymm3, %ymm0 vpand %ymm1, %ymm3, %ymm1 vpsubb %ymm2, %ymm0, %ymm0 vpsubb %ymm2, %ymm1, %ymm1 vpunpcklbw %ymm1, %ymm0, %ymm2 vpunpckhbw %ymm1, %ymm0, %ymm0 vmovdqu %xmm2, %xmm1 vpmovsxbw %xmm1, %ymm1 vextracti128 $1, %ymm2, %xmm2 vpmovsxbw %xmm2, %ymm2 vmovdqu %xmm0, %xmm3 vpmovsxbw %xmm3, %ymm3 vextracti128 $1, %ymm0, %xmm0 vpmovsxbw %xmm0, %ymm0 vmovdqu %ymm1, 384(%r9) vmovdqu %ymm3, 416(%r9) vmovdqu %ymm2, 448(%r9) vmovdqu %ymm0, 480(%r9) jmp *1464(%rsp) L_poly_getnoise$1: movl $1431655765, 172(%rsp) movl $858993459, 176(%rsp) movl $50529027, 180(%rsp) movl $252645135, 184(%rsp) movq %rax, 128(%rsp) movq (%rcx), %rax movq %rax, 136(%rsp) movq 8(%rcx), %rax movq %rax, 144(%rsp) movq 16(%rcx), %rax movq %rax, 152(%rsp) movq 24(%rcx), %rax movq %rax, 160(%rsp) movb %dl, 168(%rsp) movq %rsp, %rax leaq 136(%rsp), %rcx leaq -256(%rsp), %rsp leaq L_poly_getnoise$2(%rip), %rdx movq %rdx, 224(%rsp) jmp L_shake256_128_33$1 L_poly_getnoise$2: leaq 256(%rsp), %rsp vpbroadcastd 172(%rsp), %ymm0 vpbroadcastd 176(%rsp), %ymm1 vpbroadcastd 180(%rsp), %ymm2 vpbroadcastd 184(%rsp), %ymm3 movq 128(%rsp), %rax vmovdqu (%rsp), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, (%rax) vmovdqu %ymm7, 32(%rax) vmovdqu %ymm6, 64(%rax) vmovdqu %ymm4, 96(%rax) vmovdqu 32(%rsp), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 128(%rax) vmovdqu %ymm7, 160(%rax) vmovdqu %ymm6, 192(%rax) vmovdqu %ymm4, 224(%rax) vmovdqu 64(%rsp), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm5 vpaddb %ymm5, %ymm4, %ymm4 vpsrlw $2, %ymm4, %ymm5 vpand %ymm4, %ymm1, %ymm4 vpand %ymm5, %ymm1, %ymm5 vpaddb %ymm1, %ymm4, %ymm4 vpsubb %ymm5, %ymm4, %ymm4 vpsrlw $4, %ymm4, %ymm5 vpand %ymm4, %ymm3, %ymm4 vpand %ymm5, %ymm3, %ymm5 vpsubb %ymm2, %ymm4, %ymm4 vpsubb %ymm2, %ymm5, %ymm5 vpunpcklbw %ymm5, %ymm4, %ymm6 vpunpckhbw %ymm5, %ymm4, %ymm4 vmovdqu %xmm6, %xmm5 vpmovsxbw %xmm5, %ymm5 vextracti128 $1, %ymm6, %xmm6 vpmovsxbw %xmm6, %ymm6 vmovdqu %xmm4, %xmm7 vpmovsxbw %xmm7, %ymm7 vextracti128 $1, %ymm4, %xmm4 vpmovsxbw %xmm4, %ymm4 vmovdqu %ymm5, 256(%rax) vmovdqu %ymm7, 288(%rax) vmovdqu %ymm6, 320(%rax) vmovdqu %ymm4, 352(%rax) vmovdqu 96(%rsp), %ymm4 vpsrlw $1, %ymm4, %ymm5 vpand %ymm4, %ymm0, %ymm4 vpand %ymm5, %ymm0, %ymm0 vpaddb %ymm0, %ymm4, %ymm0 vpsrlw $2, %ymm0, %ymm4 vpand %ymm0, %ymm1, %ymm0 vpand %ymm4, %ymm1, %ymm4 vpaddb %ymm1, %ymm0, %ymm0 vpsubb %ymm4, %ymm0, %ymm0 vpsrlw $4, %ymm0, %ymm1 vpand %ymm0, %ymm3, %ymm0 vpand %ymm1, %ymm3, %ymm1 vpsubb %ymm2, %ymm0, %ymm0 vpsubb %ymm2, %ymm1, %ymm1 vpunpcklbw %ymm1, %ymm0, %ymm2 vpunpckhbw %ymm1, %ymm0, %ymm0 vmovdqu %xmm2, %xmm1 vpmovsxbw %xmm1, %ymm1 vextracti128 $1, %ymm2, %xmm2 vpmovsxbw %xmm2, %ymm2 vmovdqu %xmm0, %xmm3 vpmovsxbw %xmm3, %ymm3 vextracti128 $1, %ymm0, %xmm0 vpmovsxbw %xmm0, %ymm0 vmovdqu %ymm1, 384(%rax) vmovdqu %ymm3, 416(%rax) vmovdqu %ymm2, 448(%rax) vmovdqu %ymm0, 480(%rax) jmp *192(%rsp) L_poly_frommsg_1$1: leaq glob_data + 256(%rip), %rdi vmovdqu (%rdi), %ymm0 vbroadcasti128 glob_data + 4112(%rip), %ymm1 vbroadcasti128 glob_data + 4096(%rip), %ymm2 vmovdqu (%rax), %ymm3 vpshufd $0, %ymm3, %ymm4 vpsllvd %ymm1, %ymm4, %ymm4 vpshufb %ymm2, %ymm4, %ymm4 vpsllw $12, %ymm4, %ymm5 vpsllw $8, %ymm4, %ymm6 vpsllw $4, %ymm4, %ymm7 vpsraw $15, %ymm5, %ymm5 vpsraw $15, %ymm6, %ymm6 vpsraw $15, %ymm7, %ymm7 vpsraw $15, %ymm4, %ymm4 vpand %ymm0, %ymm5, %ymm5 vpand %ymm0, %ymm6, %ymm6 vpand %ymm0, %ymm7, %ymm7 vpand %ymm0, %ymm4, %ymm4 vpunpcklqdq %ymm6, %ymm5, %ymm8 vpunpckhqdq %ymm6, %ymm5, %ymm5 vpunpcklqdq %ymm4, %ymm7, %ymm6 vpunpckhqdq %ymm4, %ymm7, %ymm4 vperm2i128 $32, %ymm6, %ymm8, %ymm7 vperm2i128 $49, %ymm6, %ymm8, %ymm6 vperm2i128 $32, %ymm4, %ymm5, %ymm8 vperm2i128 $49, %ymm4, %ymm5, %ymm4 vmovdqu %ymm7, (%rcx) vmovdqu %ymm8, 32(%rcx) vmovdqu %ymm6, 256(%rcx) vmovdqu %ymm4, 288(%rcx) vpshufd $85, %ymm3, %ymm4 vpsllvd %ymm1, %ymm4, %ymm4 vpshufb %ymm2, %ymm4, %ymm4 vpsllw $12, %ymm4, %ymm5 vpsllw $8, %ymm4, %ymm6 vpsllw $4, %ymm4, %ymm7 vpsraw $15, %ymm5, %ymm5 vpsraw $15, %ymm6, %ymm6 vpsraw $15, %ymm7, %ymm7 vpsraw $15, %ymm4, %ymm4 vpand %ymm0, %ymm5, %ymm5 vpand %ymm0, %ymm6, %ymm6 vpand %ymm0, %ymm7, %ymm7 vpand %ymm0, %ymm4, %ymm4 vpunpcklqdq %ymm6, %ymm5, %ymm8 vpunpckhqdq %ymm6, %ymm5, %ymm5 vpunpcklqdq %ymm4, %ymm7, %ymm6 vpunpckhqdq %ymm4, %ymm7, %ymm4 vperm2i128 $32, %ymm6, %ymm8, %ymm7 vperm2i128 $49, %ymm6, %ymm8, %ymm6 vperm2i128 $32, %ymm4, %ymm5, %ymm8 vperm2i128 $49, %ymm4, %ymm5, %ymm4 vmovdqu %ymm7, 64(%rcx) vmovdqu %ymm8, 96(%rcx) vmovdqu %ymm6, 320(%rcx) vmovdqu %ymm4, 352(%rcx) vpshufd $-86, %ymm3, %ymm4 vpsllvd %ymm1, %ymm4, %ymm4 vpshufb %ymm2, %ymm4, %ymm4 vpsllw $12, %ymm4, %ymm5 vpsllw $8, %ymm4, %ymm6 vpsllw $4, %ymm4, %ymm7 vpsraw $15, %ymm5, %ymm5 vpsraw $15, %ymm6, %ymm6 vpsraw $15, %ymm7, %ymm7 vpsraw $15, %ymm4, %ymm4 vpand %ymm0, %ymm5, %ymm5 vpand %ymm0, %ymm6, %ymm6 vpand %ymm0, %ymm7, %ymm7 vpand %ymm0, %ymm4, %ymm4 vpunpcklqdq %ymm6, %ymm5, %ymm8 vpunpckhqdq %ymm6, %ymm5, %ymm5 vpunpcklqdq %ymm4, %ymm7, %ymm6 vpunpckhqdq %ymm4, %ymm7, %ymm4 vperm2i128 $32, %ymm6, %ymm8, %ymm7 vperm2i128 $49, %ymm6, %ymm8, %ymm6 vperm2i128 $32, %ymm4, %ymm5, %ymm8 vperm2i128 $49, %ymm4, %ymm5, %ymm4 vmovdqu %ymm7, 128(%rcx) vmovdqu %ymm8, 160(%rcx) vmovdqu %ymm6, 384(%rcx) vmovdqu %ymm4, 416(%rcx) vpshufd $-1, %ymm3, %ymm3 vpsllvd %ymm1, %ymm3, %ymm1 vpshufb %ymm2, %ymm1, %ymm1 vpsllw $12, %ymm1, %ymm2 vpsllw $8, %ymm1, %ymm3 vpsllw $4, %ymm1, %ymm4 vpsraw $15, %ymm2, %ymm2 vpsraw $15, %ymm3, %ymm3 vpsraw $15, %ymm4, %ymm4 vpsraw $15, %ymm1, %ymm1 vpand %ymm0, %ymm2, %ymm2 vpand %ymm0, %ymm3, %ymm3 vpand %ymm0, %ymm4, %ymm4 vpand %ymm0, %ymm1, %ymm0 vpunpcklqdq %ymm3, %ymm2, %ymm1 vpunpckhqdq %ymm3, %ymm2, %ymm2 vpunpcklqdq %ymm0, %ymm4, %ymm3 vpunpckhqdq %ymm0, %ymm4, %ymm0 vperm2i128 $32, %ymm3, %ymm1, %ymm4 vperm2i128 $49, %ymm3, %ymm1, %ymm1 vperm2i128 $32, %ymm0, %ymm2, %ymm3 vperm2i128 $49, %ymm0, %ymm2, %ymm0 vmovdqu %ymm4, 192(%rcx) vmovdqu %ymm3, 224(%rcx) vmovdqu %ymm1, 448(%rcx) vmovdqu %ymm0, 480(%rcx) jmp *%r8 L_poly_frommsg$1: leaq glob_data + 256(%rip), %rax vmovdqu (%rax), %ymm0 vbroadcasti128 glob_data + 4112(%rip), %ymm1 vbroadcasti128 glob_data + 4096(%rip), %ymm2 vmovdqu (%rcx), %ymm3 vpshufd $0, %ymm3, %ymm4 vpsllvd %ymm1, %ymm4, %ymm4 vpshufb %ymm2, %ymm4, %ymm4 vpsllw $12, %ymm4, %ymm5 vpsllw $8, %ymm4, %ymm6 vpsllw $4, %ymm4, %ymm7 vpsraw $15, %ymm5, %ymm5 vpsraw $15, %ymm6, %ymm6 vpsraw $15, %ymm7, %ymm7 vpsraw $15, %ymm4, %ymm4 vpand %ymm0, %ymm5, %ymm5 vpand %ymm0, %ymm6, %ymm6 vpand %ymm0, %ymm7, %ymm7 vpand %ymm0, %ymm4, %ymm4 vpunpcklqdq %ymm6, %ymm5, %ymm8 vpunpckhqdq %ymm6, %ymm5, %ymm5 vpunpcklqdq %ymm4, %ymm7, %ymm6 vpunpckhqdq %ymm4, %ymm7, %ymm4 vperm2i128 $32, %ymm6, %ymm8, %ymm7 vperm2i128 $49, %ymm6, %ymm8, %ymm6 vperm2i128 $32, %ymm4, %ymm5, %ymm8 vperm2i128 $49, %ymm4, %ymm5, %ymm4 vmovdqu %ymm7, (%rdx) vmovdqu %ymm8, 32(%rdx) vmovdqu %ymm6, 256(%rdx) vmovdqu %ymm4, 288(%rdx) vpshufd $85, %ymm3, %ymm4 vpsllvd %ymm1, %ymm4, %ymm4 vpshufb %ymm2, %ymm4, %ymm4 vpsllw $12, %ymm4, %ymm5 vpsllw $8, %ymm4, %ymm6 vpsllw $4, %ymm4, %ymm7 vpsraw $15, %ymm5, %ymm5 vpsraw $15, %ymm6, %ymm6 vpsraw $15, %ymm7, %ymm7 vpsraw $15, %ymm4, %ymm4 vpand %ymm0, %ymm5, %ymm5 vpand %ymm0, %ymm6, %ymm6 vpand %ymm0, %ymm7, %ymm7 vpand %ymm0, %ymm4, %ymm4 vpunpcklqdq %ymm6, %ymm5, %ymm8 vpunpckhqdq %ymm6, %ymm5, %ymm5 vpunpcklqdq %ymm4, %ymm7, %ymm6 vpunpckhqdq %ymm4, %ymm7, %ymm4 vperm2i128 $32, %ymm6, %ymm8, %ymm7 vperm2i128 $49, %ymm6, %ymm8, %ymm6 vperm2i128 $32, %ymm4, %ymm5, %ymm8 vperm2i128 $49, %ymm4, %ymm5, %ymm4 vmovdqu %ymm7, 64(%rdx) vmovdqu %ymm8, 96(%rdx) vmovdqu %ymm6, 320(%rdx) vmovdqu %ymm4, 352(%rdx) vpshufd $-86, %ymm3, %ymm4 vpsllvd %ymm1, %ymm4, %ymm4 vpshufb %ymm2, %ymm4, %ymm4 vpsllw $12, %ymm4, %ymm5 vpsllw $8, %ymm4, %ymm6 vpsllw $4, %ymm4, %ymm7 vpsraw $15, %ymm5, %ymm5 vpsraw $15, %ymm6, %ymm6 vpsraw $15, %ymm7, %ymm7 vpsraw $15, %ymm4, %ymm4 vpand %ymm0, %ymm5, %ymm5 vpand %ymm0, %ymm6, %ymm6 vpand %ymm0, %ymm7, %ymm7 vpand %ymm0, %ymm4, %ymm4 vpunpcklqdq %ymm6, %ymm5, %ymm8 vpunpckhqdq %ymm6, %ymm5, %ymm5 vpunpcklqdq %ymm4, %ymm7, %ymm6 vpunpckhqdq %ymm4, %ymm7, %ymm4 vperm2i128 $32, %ymm6, %ymm8, %ymm7 vperm2i128 $49, %ymm6, %ymm8, %ymm6 vperm2i128 $32, %ymm4, %ymm5, %ymm8 vperm2i128 $49, %ymm4, %ymm5, %ymm4 vmovdqu %ymm7, 128(%rdx) vmovdqu %ymm8, 160(%rdx) vmovdqu %ymm6, 384(%rdx) vmovdqu %ymm4, 416(%rdx) vpshufd $-1, %ymm3, %ymm3 vpsllvd %ymm1, %ymm3, %ymm1 vpshufb %ymm2, %ymm1, %ymm1 vpsllw $12, %ymm1, %ymm2 vpsllw $8, %ymm1, %ymm3 vpsllw $4, %ymm1, %ymm4 vpsraw $15, %ymm2, %ymm2 vpsraw $15, %ymm3, %ymm3 vpsraw $15, %ymm4, %ymm4 vpsraw $15, %ymm1, %ymm1 vpand %ymm0, %ymm2, %ymm2 vpand %ymm0, %ymm3, %ymm3 vpand %ymm0, %ymm4, %ymm4 vpand %ymm0, %ymm1, %ymm0 vpunpcklqdq %ymm3, %ymm2, %ymm1 vpunpckhqdq %ymm3, %ymm2, %ymm2 vpunpcklqdq %ymm0, %ymm4, %ymm3 vpunpckhqdq %ymm0, %ymm4, %ymm0 vperm2i128 $32, %ymm3, %ymm1, %ymm4 vperm2i128 $49, %ymm3, %ymm1, %ymm1 vperm2i128 $32, %ymm0, %ymm2, %ymm3 vperm2i128 $49, %ymm0, %ymm2, %ymm0 vmovdqu %ymm4, 192(%rdx) vmovdqu %ymm3, 224(%rdx) vmovdqu %ymm1, 448(%rdx) vmovdqu %ymm0, 480(%rdx) jmp *%rsi L_poly_frommont$1: leaq glob_data + 448(%rip), %rcx vmovdqu (%rcx), %ymm0 leaq glob_data + 416(%rip), %rcx vmovdqu (%rcx), %ymm1 leaq glob_data + 160(%rip), %rcx vmovdqu (%rcx), %ymm2 vmovdqu (%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, (%rax) vmovdqu 32(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, 32(%rax) vmovdqu 64(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, 64(%rax) vmovdqu 96(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, 96(%rax) vmovdqu 128(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, 128(%rax) vmovdqu 160(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, 160(%rax) vmovdqu 192(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, 192(%rax) vmovdqu 224(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, 224(%rax) vmovdqu 256(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, 256(%rax) vmovdqu 288(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, 288(%rax) vmovdqu 320(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, 320(%rax) vmovdqu 352(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, 352(%rax) vmovdqu 384(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, 384(%rax) vmovdqu 416(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, 416(%rax) vmovdqu 448(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm3 vpmullw %ymm1, %ymm3, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm4, %ymm3 vmovdqu %ymm3, 448(%rax) vmovdqu 480(%rax), %ymm3 vpmulhw %ymm2, %ymm3, %ymm4 vpmullw %ymm2, %ymm3, %ymm2 vpmullw %ymm1, %ymm2, %ymm1 vpmulhw %ymm0, %ymm1, %ymm0 vpsubw %ymm0, %ymm4, %ymm0 vmovdqu %ymm0, 480(%rax) jmp *%rdx L_poly_frombytes$1: leaq glob_data + 288(%rip), %r9 vmovdqu (%r9), %ymm0 vmovdqu (%rdi), %ymm1 vmovdqu 32(%rdi), %ymm2 vmovdqu 64(%rdi), %ymm3 vmovdqu 96(%rdi), %ymm4 vmovdqu 128(%rdi), %ymm5 vmovdqu 160(%rdi), %ymm6 vperm2i128 $32, %ymm4, %ymm1, %ymm7 vperm2i128 $49, %ymm4, %ymm1, %ymm4 vperm2i128 $32, %ymm5, %ymm2, %ymm8 vperm2i128 $49, %ymm5, %ymm2, %ymm1 vperm2i128 $32, %ymm6, %ymm3, %ymm5 vperm2i128 $49, %ymm6, %ymm3, %ymm3 vpunpcklqdq %ymm1, %ymm7, %ymm6 vpunpckhqdq %ymm1, %ymm7, %ymm1 vpunpcklqdq %ymm5, %ymm4, %ymm2 vpunpckhqdq %ymm5, %ymm4, %ymm5 vpunpcklqdq %ymm3, %ymm8, %ymm7 vpunpckhqdq %ymm3, %ymm8, %ymm3 vmovsldup %ymm5, %ymm4 vpblendd $-86, %ymm4, %ymm6, %ymm4 vpsrlq $32, %ymm6, %ymm6 vpblendd $-86, %ymm5, %ymm6, %ymm5 vmovsldup %ymm7, %ymm6 vpblendd $-86, %ymm6, %ymm1, %ymm6 vpsrlq $32, %ymm1, %ymm1 vpblendd $-86, %ymm7, %ymm1, %ymm7 vmovsldup %ymm3, %ymm1 vpblendd $-86, %ymm1, %ymm2, %ymm1 vpsrlq $32, %ymm2, %ymm2 vpblendd $-86, %ymm3, %ymm2, %ymm2 vpslld $16, %ymm7, %ymm3 vpblendw $-86, %ymm3, %ymm4, %ymm3 vpsrld $16, %ymm4, %ymm4 vpblendw $-86, %ymm7, %ymm4, %ymm4 vpslld $16, %ymm1, %ymm7 vpblendw $-86, %ymm7, %ymm5, %ymm7 vpsrld $16, %ymm5, %ymm5 vpblendw $-86, %ymm1, %ymm5, %ymm1 vpslld $16, %ymm2, %ymm5 vpblendw $-86, %ymm5, %ymm6, %ymm5 vpsrld $16, %ymm6, %ymm6 vpblendw $-86, %ymm2, %ymm6, %ymm2 vpsrlw $12, %ymm3, %ymm6 vpsllw $4, %ymm4, %ymm8 vpor %ymm8, %ymm6, %ymm6 vpand %ymm3, %ymm0, %ymm3 vpand %ymm6, %ymm0, %ymm6 vpsrlw $8, %ymm4, %ymm4 vpsllw $8, %ymm7, %ymm8 vpor %ymm8, %ymm4, %ymm4 vpand %ymm4, %ymm0, %ymm4 vpsrlw $4, %ymm7, %ymm7 vpand %ymm7, %ymm0, %ymm7 vpsrlw $12, %ymm1, %ymm8 vpsllw $4, %ymm5, %ymm9 vpor %ymm9, %ymm8, %ymm8 vpand %ymm1, %ymm0, %ymm1 vpand %ymm8, %ymm0, %ymm8 vpsrlw $8, %ymm5, %ymm5 vpsllw $8, %ymm2, %ymm9 vpor %ymm9, %ymm5, %ymm5 vpand %ymm5, %ymm0, %ymm5 vpsrlw $4, %ymm2, %ymm2 vpand %ymm2, %ymm0, %ymm2 vmovdqu %ymm3, (%r8) vmovdqu %ymm6, 32(%r8) vmovdqu %ymm4, 64(%r8) vmovdqu %ymm7, 96(%r8) vmovdqu %ymm1, 128(%r8) vmovdqu %ymm8, 160(%r8) vmovdqu %ymm5, 192(%r8) vmovdqu %ymm2, 224(%r8) vmovdqu 192(%rdi), %ymm1 vmovdqu 224(%rdi), %ymm2 vmovdqu 256(%rdi), %ymm3 vmovdqu 288(%rdi), %ymm4 vmovdqu 320(%rdi), %ymm5 vmovdqu 352(%rdi), %ymm6 vperm2i128 $32, %ymm4, %ymm1, %ymm7 vperm2i128 $49, %ymm4, %ymm1, %ymm4 vperm2i128 $32, %ymm5, %ymm2, %ymm8 vperm2i128 $49, %ymm5, %ymm2, %ymm1 vperm2i128 $32, %ymm6, %ymm3, %ymm5 vperm2i128 $49, %ymm6, %ymm3, %ymm3 vpunpcklqdq %ymm1, %ymm7, %ymm6 vpunpckhqdq %ymm1, %ymm7, %ymm1 vpunpcklqdq %ymm5, %ymm4, %ymm2 vpunpckhqdq %ymm5, %ymm4, %ymm5 vpunpcklqdq %ymm3, %ymm8, %ymm7 vpunpckhqdq %ymm3, %ymm8, %ymm3 vmovsldup %ymm5, %ymm4 vpblendd $-86, %ymm4, %ymm6, %ymm4 vpsrlq $32, %ymm6, %ymm6 vpblendd $-86, %ymm5, %ymm6, %ymm5 vmovsldup %ymm7, %ymm6 vpblendd $-86, %ymm6, %ymm1, %ymm6 vpsrlq $32, %ymm1, %ymm1 vpblendd $-86, %ymm7, %ymm1, %ymm7 vmovsldup %ymm3, %ymm1 vpblendd $-86, %ymm1, %ymm2, %ymm1 vpsrlq $32, %ymm2, %ymm2 vpblendd $-86, %ymm3, %ymm2, %ymm2 vpslld $16, %ymm7, %ymm3 vpblendw $-86, %ymm3, %ymm4, %ymm3 vpsrld $16, %ymm4, %ymm4 vpblendw $-86, %ymm7, %ymm4, %ymm4 vpslld $16, %ymm1, %ymm7 vpblendw $-86, %ymm7, %ymm5, %ymm7 vpsrld $16, %ymm5, %ymm5 vpblendw $-86, %ymm1, %ymm5, %ymm1 vpslld $16, %ymm2, %ymm5 vpblendw $-86, %ymm5, %ymm6, %ymm5 vpsrld $16, %ymm6, %ymm6 vpblendw $-86, %ymm2, %ymm6, %ymm2 vpsrlw $12, %ymm3, %ymm6 vpsllw $4, %ymm4, %ymm8 vpor %ymm8, %ymm6, %ymm6 vpand %ymm3, %ymm0, %ymm3 vpand %ymm6, %ymm0, %ymm6 vpsrlw $8, %ymm4, %ymm4 vpsllw $8, %ymm7, %ymm8 vpor %ymm8, %ymm4, %ymm4 vpand %ymm4, %ymm0, %ymm4 vpsrlw $4, %ymm7, %ymm7 vpand %ymm7, %ymm0, %ymm7 vpsrlw $12, %ymm1, %ymm8 vpsllw $4, %ymm5, %ymm9 vpor %ymm9, %ymm8, %ymm8 vpand %ymm1, %ymm0, %ymm1 vpand %ymm8, %ymm0, %ymm8 vpsrlw $8, %ymm5, %ymm5 vpsllw $8, %ymm2, %ymm9 vpor %ymm9, %ymm5, %ymm5 vpand %ymm5, %ymm0, %ymm5 vpsrlw $4, %ymm2, %ymm2 vpand %ymm2, %ymm0, %ymm0 vmovdqu %ymm3, 256(%r8) vmovdqu %ymm6, 288(%r8) vmovdqu %ymm4, 320(%r8) vmovdqu %ymm7, 352(%r8) vmovdqu %ymm1, 384(%r8) vmovdqu %ymm8, 416(%r8) vmovdqu %ymm5, 448(%r8) vmovdqu %ymm0, 480(%r8) jmp *%r10 L_poly_decompress$1: leaq glob_data + 448(%rip), %rdi vmovdqu (%rdi), %ymm0 leaq glob_data + 96(%rip), %rdi vmovdqu (%rdi), %ymm1 vpbroadcastd glob_data + 6412(%rip), %ymm2 vpbroadcastd glob_data + 6408(%rip), %ymm3 vpxor %ymm4, %ymm4, %ymm4 movq (%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, (%rcx) movq 8(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 32(%rcx) movq 16(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 64(%rcx) movq 24(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 96(%rcx) movq 32(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 128(%rcx) movq 40(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 160(%rcx) movq 48(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 192(%rcx) movq 56(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 224(%rcx) movq 64(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 256(%rcx) movq 72(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 288(%rcx) movq 80(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 320(%rcx) movq 88(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 352(%rcx) movq 96(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 384(%rcx) movq 104(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 416(%rcx) movq 112(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm4 vpand %ymm2, %ymm4, %ymm4 vpmullw %ymm3, %ymm4, %ymm4 vpmulhrsw %ymm0, %ymm4, %ymm4 vmovdqu %ymm4, 448(%rcx) movq 120(%rsi), %xmm4 vmovdqu %xmm4, (%rsp) vbroadcasti128 (%rsp), %ymm4 vpshufb %ymm1, %ymm4, %ymm1 vpand %ymm2, %ymm1, %ymm1 vpmullw %ymm3, %ymm1, %ymm1 vpmulhrsw %ymm0, %ymm1, %ymm0 vmovdqu %ymm0, 480(%rcx) jmp *%r8 L_poly_compress_1$1: leaq L_poly_compress_1$2(%rip), %r8 jmp L_poly_csubq$1 L_poly_compress_1$2: leaq glob_data + 384(%rip), %rdx vmovdqu (%rdx), %ymm0 vpbroadcastw glob_data + 6428(%rip), %ymm1 vpbroadcastw glob_data + 6426(%rip), %ymm2 vpbroadcastw glob_data + 6424(%rip), %ymm3 vmovdqu glob_data + 128(%rip), %ymm4 vmovdqu (%rcx), %ymm5 vmovdqu 32(%rcx), %ymm6 vmovdqu 64(%rcx), %ymm7 vmovdqu 96(%rcx), %ymm8 vpmulhw %ymm0, %ymm5, %ymm5 vpmulhw %ymm0, %ymm6, %ymm6 vpmulhw %ymm0, %ymm7, %ymm7 vpmulhw %ymm0, %ymm8, %ymm8 vpmulhrsw %ymm1, %ymm5, %ymm5 vpmulhrsw %ymm1, %ymm6, %ymm6 vpmulhrsw %ymm1, %ymm7, %ymm7 vpmulhrsw %ymm1, %ymm8, %ymm8 vpand %ymm2, %ymm5, %ymm5 vpand %ymm2, %ymm6, %ymm6 vpand %ymm2, %ymm7, %ymm7 vpand %ymm2, %ymm8, %ymm8 vpackuswb %ymm6, %ymm5, %ymm5 vpackuswb %ymm8, %ymm7, %ymm6 vpmaddubsw %ymm3, %ymm5, %ymm5 vpmaddubsw %ymm3, %ymm6, %ymm6 vpackuswb %ymm6, %ymm5, %ymm5 vpermd %ymm5, %ymm4, %ymm5 vmovdqu %ymm5, (%rax) vmovdqu 128(%rcx), %ymm5 vmovdqu 160(%rcx), %ymm6 vmovdqu 192(%rcx), %ymm7 vmovdqu 224(%rcx), %ymm8 vpmulhw %ymm0, %ymm5, %ymm5 vpmulhw %ymm0, %ymm6, %ymm6 vpmulhw %ymm0, %ymm7, %ymm7 vpmulhw %ymm0, %ymm8, %ymm8 vpmulhrsw %ymm1, %ymm5, %ymm5 vpmulhrsw %ymm1, %ymm6, %ymm6 vpmulhrsw %ymm1, %ymm7, %ymm7 vpmulhrsw %ymm1, %ymm8, %ymm8 vpand %ymm2, %ymm5, %ymm5 vpand %ymm2, %ymm6, %ymm6 vpand %ymm2, %ymm7, %ymm7 vpand %ymm2, %ymm8, %ymm8 vpackuswb %ymm6, %ymm5, %ymm5 vpackuswb %ymm8, %ymm7, %ymm6 vpmaddubsw %ymm3, %ymm5, %ymm5 vpmaddubsw %ymm3, %ymm6, %ymm6 vpackuswb %ymm6, %ymm5, %ymm5 vpermd %ymm5, %ymm4, %ymm5 vmovdqu %ymm5, 32(%rax) vmovdqu 256(%rcx), %ymm5 vmovdqu 288(%rcx), %ymm6 vmovdqu 320(%rcx), %ymm7 vmovdqu 352(%rcx), %ymm8 vpmulhw %ymm0, %ymm5, %ymm5 vpmulhw %ymm0, %ymm6, %ymm6 vpmulhw %ymm0, %ymm7, %ymm7 vpmulhw %ymm0, %ymm8, %ymm8 vpmulhrsw %ymm1, %ymm5, %ymm5 vpmulhrsw %ymm1, %ymm6, %ymm6 vpmulhrsw %ymm1, %ymm7, %ymm7 vpmulhrsw %ymm1, %ymm8, %ymm8 vpand %ymm2, %ymm5, %ymm5 vpand %ymm2, %ymm6, %ymm6 vpand %ymm2, %ymm7, %ymm7 vpand %ymm2, %ymm8, %ymm8 vpackuswb %ymm6, %ymm5, %ymm5 vpackuswb %ymm8, %ymm7, %ymm6 vpmaddubsw %ymm3, %ymm5, %ymm5 vpmaddubsw %ymm3, %ymm6, %ymm6 vpackuswb %ymm6, %ymm5, %ymm5 vpermd %ymm5, %ymm4, %ymm5 vmovdqu %ymm5, 64(%rax) vmovdqu 384(%rcx), %ymm5 vmovdqu 416(%rcx), %ymm6 vmovdqu 448(%rcx), %ymm7 vmovdqu 480(%rcx), %ymm8 vpmulhw %ymm0, %ymm5, %ymm5 vpmulhw %ymm0, %ymm6, %ymm6 vpmulhw %ymm0, %ymm7, %ymm7 vpmulhw %ymm0, %ymm8, %ymm0 vpmulhrsw %ymm1, %ymm5, %ymm5 vpmulhrsw %ymm1, %ymm6, %ymm6 vpmulhrsw %ymm1, %ymm7, %ymm7 vpmulhrsw %ymm1, %ymm0, %ymm0 vpand %ymm2, %ymm5, %ymm1 vpand %ymm2, %ymm6, %ymm5 vpand %ymm2, %ymm7, %ymm6 vpand %ymm2, %ymm0, %ymm0 vpackuswb %ymm5, %ymm1, %ymm1 vpackuswb %ymm0, %ymm6, %ymm0 vpmaddubsw %ymm3, %ymm1, %ymm1 vpmaddubsw %ymm3, %ymm0, %ymm0 vpackuswb %ymm0, %ymm1, %ymm0 vpermd %ymm0, %ymm4, %ymm0 vmovdqu %ymm0, 96(%rax) jmp *%rsi L_poly_compress$1: leaq L_poly_compress$2(%rip), %r8 jmp L_poly_csubq$1 L_poly_compress$2: leaq glob_data + 384(%rip), %rdx vmovdqu (%rdx), %ymm0 vpbroadcastw glob_data + 6428(%rip), %ymm1 vpbroadcastw glob_data + 6426(%rip), %ymm2 vpbroadcastw glob_data + 6424(%rip), %ymm3 vmovdqu glob_data + 128(%rip), %ymm4 vmovdqu (%rcx), %ymm5 vmovdqu 32(%rcx), %ymm6 vmovdqu 64(%rcx), %ymm7 vmovdqu 96(%rcx), %ymm8 vpmulhw %ymm0, %ymm5, %ymm5 vpmulhw %ymm0, %ymm6, %ymm6 vpmulhw %ymm0, %ymm7, %ymm7 vpmulhw %ymm0, %ymm8, %ymm8 vpmulhrsw %ymm1, %ymm5, %ymm5 vpmulhrsw %ymm1, %ymm6, %ymm6 vpmulhrsw %ymm1, %ymm7, %ymm7 vpmulhrsw %ymm1, %ymm8, %ymm8 vpand %ymm2, %ymm5, %ymm5 vpand %ymm2, %ymm6, %ymm6 vpand %ymm2, %ymm7, %ymm7 vpand %ymm2, %ymm8, %ymm8 vpackuswb %ymm6, %ymm5, %ymm5 vpackuswb %ymm8, %ymm7, %ymm6 vpmaddubsw %ymm3, %ymm5, %ymm5 vpmaddubsw %ymm3, %ymm6, %ymm6 vpackuswb %ymm6, %ymm5, %ymm5 vpermd %ymm5, %ymm4, %ymm5 vmovdqu %ymm5, (%rax) vmovdqu 128(%rcx), %ymm5 vmovdqu 160(%rcx), %ymm6 vmovdqu 192(%rcx), %ymm7 vmovdqu 224(%rcx), %ymm8 vpmulhw %ymm0, %ymm5, %ymm5 vpmulhw %ymm0, %ymm6, %ymm6 vpmulhw %ymm0, %ymm7, %ymm7 vpmulhw %ymm0, %ymm8, %ymm8 vpmulhrsw %ymm1, %ymm5, %ymm5 vpmulhrsw %ymm1, %ymm6, %ymm6 vpmulhrsw %ymm1, %ymm7, %ymm7 vpmulhrsw %ymm1, %ymm8, %ymm8 vpand %ymm2, %ymm5, %ymm5 vpand %ymm2, %ymm6, %ymm6 vpand %ymm2, %ymm7, %ymm7 vpand %ymm2, %ymm8, %ymm8 vpackuswb %ymm6, %ymm5, %ymm5 vpackuswb %ymm8, %ymm7, %ymm6 vpmaddubsw %ymm3, %ymm5, %ymm5 vpmaddubsw %ymm3, %ymm6, %ymm6 vpackuswb %ymm6, %ymm5, %ymm5 vpermd %ymm5, %ymm4, %ymm5 vmovdqu %ymm5, 32(%rax) vmovdqu 256(%rcx), %ymm5 vmovdqu 288(%rcx), %ymm6 vmovdqu 320(%rcx), %ymm7 vmovdqu 352(%rcx), %ymm8 vpmulhw %ymm0, %ymm5, %ymm5 vpmulhw %ymm0, %ymm6, %ymm6 vpmulhw %ymm0, %ymm7, %ymm7 vpmulhw %ymm0, %ymm8, %ymm8 vpmulhrsw %ymm1, %ymm5, %ymm5 vpmulhrsw %ymm1, %ymm6, %ymm6 vpmulhrsw %ymm1, %ymm7, %ymm7 vpmulhrsw %ymm1, %ymm8, %ymm8 vpand %ymm2, %ymm5, %ymm5 vpand %ymm2, %ymm6, %ymm6 vpand %ymm2, %ymm7, %ymm7 vpand %ymm2, %ymm8, %ymm8 vpackuswb %ymm6, %ymm5, %ymm5 vpackuswb %ymm8, %ymm7, %ymm6 vpmaddubsw %ymm3, %ymm5, %ymm5 vpmaddubsw %ymm3, %ymm6, %ymm6 vpackuswb %ymm6, %ymm5, %ymm5 vpermd %ymm5, %ymm4, %ymm5 vmovdqu %ymm5, 64(%rax) vmovdqu 384(%rcx), %ymm5 vmovdqu 416(%rcx), %ymm6 vmovdqu 448(%rcx), %ymm7 vmovdqu 480(%rcx), %ymm8 vpmulhw %ymm0, %ymm5, %ymm5 vpmulhw %ymm0, %ymm6, %ymm6 vpmulhw %ymm0, %ymm7, %ymm7 vpmulhw %ymm0, %ymm8, %ymm0 vpmulhrsw %ymm1, %ymm5, %ymm5 vpmulhrsw %ymm1, %ymm6, %ymm6 vpmulhrsw %ymm1, %ymm7, %ymm7 vpmulhrsw %ymm1, %ymm0, %ymm0 vpand %ymm2, %ymm5, %ymm1 vpand %ymm2, %ymm6, %ymm5 vpand %ymm2, %ymm7, %ymm6 vpand %ymm2, %ymm0, %ymm0 vpackuswb %ymm5, %ymm1, %ymm1 vpackuswb %ymm0, %ymm6, %ymm0 vpmaddubsw %ymm3, %ymm1, %ymm1 vpmaddubsw %ymm3, %ymm0, %ymm0 vpackuswb %ymm0, %ymm1, %ymm0 vpermd %ymm0, %ymm4, %ymm0 vmovdqu %ymm0, 96(%rax) jmp *%rsi L_poly_basemul$1: vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu glob_data + 416(%rip), %ymm1 vmovdqu glob_data + 1552(%rip), %ymm2 vmovdqu glob_data + 1584(%rip), %ymm3 vmovdqu (%rsi), %ymm4 vmovdqu 32(%rsi), %ymm5 vmovdqu (%rdi), %ymm6 vmovdqu 32(%rdi), %ymm7 vpmullw %ymm5, %ymm2, %ymm8 vpmulhw %ymm5, %ymm3, %ymm9 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm8, %ymm9, %ymm8 vpmullw %ymm6, %ymm4, %ymm10 vpmulhw %ymm6, %ymm4, %ymm11 vpunpcklwd %ymm11, %ymm10, %ymm9 vpunpckhwd %ymm11, %ymm10, %ymm10 vpmullw %ymm7, %ymm4, %ymm12 vpmulhw %ymm7, %ymm4, %ymm4 vpunpcklwd %ymm4, %ymm12, %ymm11 vpunpckhwd %ymm4, %ymm12, %ymm4 vpmullw %ymm6, %ymm5, %ymm12 vpmulhw %ymm6, %ymm5, %ymm6 vpunpcklwd %ymm6, %ymm12, %ymm5 vpunpckhwd %ymm6, %ymm12, %ymm6 vpmullw %ymm7, %ymm8, %ymm12 vpmulhw %ymm7, %ymm8, %ymm7 vpunpcklwd %ymm7, %ymm12, %ymm8 vpunpckhwd %ymm7, %ymm12, %ymm12 vpaddd %ymm8, %ymm9, %ymm7 vpaddd %ymm12, %ymm10, %ymm8 vpaddd %ymm11, %ymm5, %ymm5 vpaddd %ymm4, %ymm6, %ymm4 vpxor %ymm9, %ymm9, %ymm9 vpblendw $-86, %ymm9, %ymm7, %ymm6 vpblendw $-86, %ymm9, %ymm8, %ymm10 vpackusdw %ymm10, %ymm6, %ymm6 vpsrld $16, %ymm7, %ymm7 vpsrld $16, %ymm8, %ymm8 vpackusdw %ymm8, %ymm7, %ymm7 vpblendw $-86, %ymm9, %ymm5, %ymm8 vpblendw $-86, %ymm9, %ymm4, %ymm9 vpackusdw %ymm9, %ymm8, %ymm8 vpsrld $16, %ymm5, %ymm5 vpsrld $16, %ymm4, %ymm4 vpackusdw %ymm4, %ymm5, %ymm4 vpmullw %ymm1, %ymm6, %ymm5 vpmulhw %ymm0, %ymm5, %ymm5 vpsubw %ymm5, %ymm7, %ymm5 vpmullw %ymm1, %ymm8, %ymm6 vpmulhw %ymm0, %ymm6, %ymm6 vpsubw %ymm6, %ymm4, %ymm4 vmovdqu %ymm5, (%rcx) vmovdqu %ymm4, 32(%rcx) vmovdqu 64(%rsi), %ymm4 vmovdqu 96(%rsi), %ymm5 vmovdqu 64(%rdi), %ymm6 vmovdqu 96(%rdi), %ymm7 vpmullw %ymm5, %ymm2, %ymm2 vpmulhw %ymm5, %ymm3, %ymm3 vpmulhw %ymm0, %ymm2, %ymm2 vpsubw %ymm2, %ymm3, %ymm2 vpmullw %ymm6, %ymm4, %ymm8 vpmulhw %ymm6, %ymm4, %ymm9 vpunpcklwd %ymm9, %ymm8, %ymm3 vpunpckhwd %ymm9, %ymm8, %ymm8 vpmullw %ymm7, %ymm4, %ymm9 vpmulhw %ymm7, %ymm4, %ymm10 vpunpcklwd %ymm10, %ymm9, %ymm4 vpunpckhwd %ymm10, %ymm9, %ymm9 vpmullw %ymm6, %ymm5, %ymm10 vpmulhw %ymm6, %ymm5, %ymm6 vpunpcklwd %ymm6, %ymm10, %ymm5 vpunpckhwd %ymm6, %ymm10, %ymm6 vpmullw %ymm7, %ymm2, %ymm10 vpmulhw %ymm7, %ymm2, %ymm2 vpunpcklwd %ymm2, %ymm10, %ymm7 vpunpckhwd %ymm2, %ymm10, %ymm2 vpsubd %ymm7, %ymm3, %ymm7 vpsubd %ymm2, %ymm8, %ymm8 vpaddd %ymm4, %ymm5, %ymm2 vpaddd %ymm9, %ymm6, %ymm3 vpxor %ymm5, %ymm5, %ymm5 vpblendw $-86, %ymm5, %ymm7, %ymm4 vpblendw $-86, %ymm5, %ymm8, %ymm6 vpackusdw %ymm6, %ymm4, %ymm4 vpsrld $16, %ymm7, %ymm6 vpsrld $16, %ymm8, %ymm7 vpackusdw %ymm7, %ymm6, %ymm6 vpblendw $-86, %ymm5, %ymm2, %ymm7 vpblendw $-86, %ymm5, %ymm3, %ymm5 vpackusdw %ymm5, %ymm7, %ymm5 vpsrld $16, %ymm2, %ymm2 vpsrld $16, %ymm3, %ymm3 vpackusdw %ymm3, %ymm2, %ymm2 vpmullw %ymm1, %ymm4, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm6, %ymm3 vpmullw %ymm1, %ymm5, %ymm4 vpmulhw %ymm0, %ymm4, %ymm4 vpsubw %ymm4, %ymm2, %ymm2 vmovdqu %ymm3, 64(%rcx) vmovdqu %ymm2, 96(%rcx) vmovdqu glob_data + 1616(%rip), %ymm2 vmovdqu glob_data + 1648(%rip), %ymm3 vmovdqu 128(%rsi), %ymm4 vmovdqu 160(%rsi), %ymm5 vmovdqu 128(%rdi), %ymm6 vmovdqu 160(%rdi), %ymm7 vpmullw %ymm5, %ymm2, %ymm8 vpmulhw %ymm5, %ymm3, %ymm9 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm8, %ymm9, %ymm8 vpmullw %ymm6, %ymm4, %ymm10 vpmulhw %ymm6, %ymm4, %ymm11 vpunpcklwd %ymm11, %ymm10, %ymm9 vpunpckhwd %ymm11, %ymm10, %ymm10 vpmullw %ymm7, %ymm4, %ymm12 vpmulhw %ymm7, %ymm4, %ymm4 vpunpcklwd %ymm4, %ymm12, %ymm11 vpunpckhwd %ymm4, %ymm12, %ymm4 vpmullw %ymm6, %ymm5, %ymm12 vpmulhw %ymm6, %ymm5, %ymm6 vpunpcklwd %ymm6, %ymm12, %ymm5 vpunpckhwd %ymm6, %ymm12, %ymm6 vpmullw %ymm7, %ymm8, %ymm12 vpmulhw %ymm7, %ymm8, %ymm7 vpunpcklwd %ymm7, %ymm12, %ymm8 vpunpckhwd %ymm7, %ymm12, %ymm12 vpaddd %ymm8, %ymm9, %ymm7 vpaddd %ymm12, %ymm10, %ymm8 vpaddd %ymm11, %ymm5, %ymm5 vpaddd %ymm4, %ymm6, %ymm4 vpxor %ymm9, %ymm9, %ymm9 vpblendw $-86, %ymm9, %ymm7, %ymm6 vpblendw $-86, %ymm9, %ymm8, %ymm10 vpackusdw %ymm10, %ymm6, %ymm6 vpsrld $16, %ymm7, %ymm7 vpsrld $16, %ymm8, %ymm8 vpackusdw %ymm8, %ymm7, %ymm7 vpblendw $-86, %ymm9, %ymm5, %ymm8 vpblendw $-86, %ymm9, %ymm4, %ymm9 vpackusdw %ymm9, %ymm8, %ymm8 vpsrld $16, %ymm5, %ymm5 vpsrld $16, %ymm4, %ymm4 vpackusdw %ymm4, %ymm5, %ymm4 vpmullw %ymm1, %ymm6, %ymm5 vpmulhw %ymm0, %ymm5, %ymm5 vpsubw %ymm5, %ymm7, %ymm5 vpmullw %ymm1, %ymm8, %ymm6 vpmulhw %ymm0, %ymm6, %ymm6 vpsubw %ymm6, %ymm4, %ymm4 vmovdqu %ymm5, 128(%rcx) vmovdqu %ymm4, 160(%rcx) vmovdqu 192(%rsi), %ymm4 vmovdqu 224(%rsi), %ymm5 vmovdqu 192(%rdi), %ymm6 vmovdqu 224(%rdi), %ymm7 vpmullw %ymm5, %ymm2, %ymm2 vpmulhw %ymm5, %ymm3, %ymm3 vpmulhw %ymm0, %ymm2, %ymm2 vpsubw %ymm2, %ymm3, %ymm2 vpmullw %ymm6, %ymm4, %ymm8 vpmulhw %ymm6, %ymm4, %ymm9 vpunpcklwd %ymm9, %ymm8, %ymm3 vpunpckhwd %ymm9, %ymm8, %ymm8 vpmullw %ymm7, %ymm4, %ymm9 vpmulhw %ymm7, %ymm4, %ymm10 vpunpcklwd %ymm10, %ymm9, %ymm4 vpunpckhwd %ymm10, %ymm9, %ymm9 vpmullw %ymm6, %ymm5, %ymm10 vpmulhw %ymm6, %ymm5, %ymm6 vpunpcklwd %ymm6, %ymm10, %ymm5 vpunpckhwd %ymm6, %ymm10, %ymm6 vpmullw %ymm7, %ymm2, %ymm10 vpmulhw %ymm7, %ymm2, %ymm2 vpunpcklwd %ymm2, %ymm10, %ymm7 vpunpckhwd %ymm2, %ymm10, %ymm2 vpsubd %ymm7, %ymm3, %ymm7 vpsubd %ymm2, %ymm8, %ymm8 vpaddd %ymm4, %ymm5, %ymm2 vpaddd %ymm9, %ymm6, %ymm3 vpxor %ymm5, %ymm5, %ymm5 vpblendw $-86, %ymm5, %ymm7, %ymm4 vpblendw $-86, %ymm5, %ymm8, %ymm6 vpackusdw %ymm6, %ymm4, %ymm4 vpsrld $16, %ymm7, %ymm6 vpsrld $16, %ymm8, %ymm7 vpackusdw %ymm7, %ymm6, %ymm6 vpblendw $-86, %ymm5, %ymm2, %ymm7 vpblendw $-86, %ymm5, %ymm3, %ymm5 vpackusdw %ymm5, %ymm7, %ymm5 vpsrld $16, %ymm2, %ymm2 vpsrld $16, %ymm3, %ymm3 vpackusdw %ymm3, %ymm2, %ymm2 vpmullw %ymm1, %ymm4, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm6, %ymm3 vpmullw %ymm1, %ymm5, %ymm4 vpmulhw %ymm0, %ymm4, %ymm4 vpsubw %ymm4, %ymm2, %ymm2 vmovdqu %ymm3, 192(%rcx) vmovdqu %ymm2, 224(%rcx) vmovdqu glob_data + 1944(%rip), %ymm2 vmovdqu glob_data + 1976(%rip), %ymm3 vmovdqu 256(%rsi), %ymm4 vmovdqu 288(%rsi), %ymm5 vmovdqu 256(%rdi), %ymm6 vmovdqu 288(%rdi), %ymm7 vpmullw %ymm5, %ymm2, %ymm8 vpmulhw %ymm5, %ymm3, %ymm9 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm8, %ymm9, %ymm8 vpmullw %ymm6, %ymm4, %ymm10 vpmulhw %ymm6, %ymm4, %ymm11 vpunpcklwd %ymm11, %ymm10, %ymm9 vpunpckhwd %ymm11, %ymm10, %ymm10 vpmullw %ymm7, %ymm4, %ymm12 vpmulhw %ymm7, %ymm4, %ymm4 vpunpcklwd %ymm4, %ymm12, %ymm11 vpunpckhwd %ymm4, %ymm12, %ymm4 vpmullw %ymm6, %ymm5, %ymm12 vpmulhw %ymm6, %ymm5, %ymm6 vpunpcklwd %ymm6, %ymm12, %ymm5 vpunpckhwd %ymm6, %ymm12, %ymm6 vpmullw %ymm7, %ymm8, %ymm12 vpmulhw %ymm7, %ymm8, %ymm7 vpunpcklwd %ymm7, %ymm12, %ymm8 vpunpckhwd %ymm7, %ymm12, %ymm12 vpaddd %ymm8, %ymm9, %ymm7 vpaddd %ymm12, %ymm10, %ymm8 vpaddd %ymm11, %ymm5, %ymm5 vpaddd %ymm4, %ymm6, %ymm4 vpxor %ymm9, %ymm9, %ymm9 vpblendw $-86, %ymm9, %ymm7, %ymm6 vpblendw $-86, %ymm9, %ymm8, %ymm10 vpackusdw %ymm10, %ymm6, %ymm6 vpsrld $16, %ymm7, %ymm7 vpsrld $16, %ymm8, %ymm8 vpackusdw %ymm8, %ymm7, %ymm7 vpblendw $-86, %ymm9, %ymm5, %ymm8 vpblendw $-86, %ymm9, %ymm4, %ymm9 vpackusdw %ymm9, %ymm8, %ymm8 vpsrld $16, %ymm5, %ymm5 vpsrld $16, %ymm4, %ymm4 vpackusdw %ymm4, %ymm5, %ymm4 vpmullw %ymm1, %ymm6, %ymm5 vpmulhw %ymm0, %ymm5, %ymm5 vpsubw %ymm5, %ymm7, %ymm5 vpmullw %ymm1, %ymm8, %ymm6 vpmulhw %ymm0, %ymm6, %ymm6 vpsubw %ymm6, %ymm4, %ymm4 vmovdqu %ymm5, 256(%rcx) vmovdqu %ymm4, 288(%rcx) vmovdqu 320(%rsi), %ymm4 vmovdqu 352(%rsi), %ymm5 vmovdqu 320(%rdi), %ymm6 vmovdqu 352(%rdi), %ymm7 vpmullw %ymm5, %ymm2, %ymm2 vpmulhw %ymm5, %ymm3, %ymm3 vpmulhw %ymm0, %ymm2, %ymm2 vpsubw %ymm2, %ymm3, %ymm2 vpmullw %ymm6, %ymm4, %ymm8 vpmulhw %ymm6, %ymm4, %ymm9 vpunpcklwd %ymm9, %ymm8, %ymm3 vpunpckhwd %ymm9, %ymm8, %ymm8 vpmullw %ymm7, %ymm4, %ymm9 vpmulhw %ymm7, %ymm4, %ymm10 vpunpcklwd %ymm10, %ymm9, %ymm4 vpunpckhwd %ymm10, %ymm9, %ymm9 vpmullw %ymm6, %ymm5, %ymm10 vpmulhw %ymm6, %ymm5, %ymm6 vpunpcklwd %ymm6, %ymm10, %ymm5 vpunpckhwd %ymm6, %ymm10, %ymm6 vpmullw %ymm7, %ymm2, %ymm10 vpmulhw %ymm7, %ymm2, %ymm2 vpunpcklwd %ymm2, %ymm10, %ymm7 vpunpckhwd %ymm2, %ymm10, %ymm2 vpsubd %ymm7, %ymm3, %ymm7 vpsubd %ymm2, %ymm8, %ymm8 vpaddd %ymm4, %ymm5, %ymm2 vpaddd %ymm9, %ymm6, %ymm3 vpxor %ymm5, %ymm5, %ymm5 vpblendw $-86, %ymm5, %ymm7, %ymm4 vpblendw $-86, %ymm5, %ymm8, %ymm6 vpackusdw %ymm6, %ymm4, %ymm4 vpsrld $16, %ymm7, %ymm6 vpsrld $16, %ymm8, %ymm7 vpackusdw %ymm7, %ymm6, %ymm6 vpblendw $-86, %ymm5, %ymm2, %ymm7 vpblendw $-86, %ymm5, %ymm3, %ymm5 vpackusdw %ymm5, %ymm7, %ymm5 vpsrld $16, %ymm2, %ymm2 vpsrld $16, %ymm3, %ymm3 vpackusdw %ymm3, %ymm2, %ymm2 vpmullw %ymm1, %ymm4, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm6, %ymm3 vpmullw %ymm1, %ymm5, %ymm4 vpmulhw %ymm0, %ymm4, %ymm4 vpsubw %ymm4, %ymm2, %ymm2 vmovdqu %ymm3, 320(%rcx) vmovdqu %ymm2, 352(%rcx) vmovdqu glob_data + 2008(%rip), %ymm2 vmovdqu glob_data + 2040(%rip), %ymm3 vmovdqu 384(%rsi), %ymm4 vmovdqu 416(%rsi), %ymm5 vmovdqu 384(%rdi), %ymm6 vmovdqu 416(%rdi), %ymm7 vpmullw %ymm5, %ymm2, %ymm8 vpmulhw %ymm5, %ymm3, %ymm9 vpmulhw %ymm0, %ymm8, %ymm8 vpsubw %ymm8, %ymm9, %ymm8 vpmullw %ymm6, %ymm4, %ymm10 vpmulhw %ymm6, %ymm4, %ymm11 vpunpcklwd %ymm11, %ymm10, %ymm9 vpunpckhwd %ymm11, %ymm10, %ymm10 vpmullw %ymm7, %ymm4, %ymm12 vpmulhw %ymm7, %ymm4, %ymm4 vpunpcklwd %ymm4, %ymm12, %ymm11 vpunpckhwd %ymm4, %ymm12, %ymm4 vpmullw %ymm6, %ymm5, %ymm12 vpmulhw %ymm6, %ymm5, %ymm6 vpunpcklwd %ymm6, %ymm12, %ymm5 vpunpckhwd %ymm6, %ymm12, %ymm6 vpmullw %ymm7, %ymm8, %ymm12 vpmulhw %ymm7, %ymm8, %ymm7 vpunpcklwd %ymm7, %ymm12, %ymm8 vpunpckhwd %ymm7, %ymm12, %ymm12 vpaddd %ymm8, %ymm9, %ymm7 vpaddd %ymm12, %ymm10, %ymm8 vpaddd %ymm11, %ymm5, %ymm5 vpaddd %ymm4, %ymm6, %ymm4 vpxor %ymm9, %ymm9, %ymm9 vpblendw $-86, %ymm9, %ymm7, %ymm6 vpblendw $-86, %ymm9, %ymm8, %ymm10 vpackusdw %ymm10, %ymm6, %ymm6 vpsrld $16, %ymm7, %ymm7 vpsrld $16, %ymm8, %ymm8 vpackusdw %ymm8, %ymm7, %ymm7 vpblendw $-86, %ymm9, %ymm5, %ymm8 vpblendw $-86, %ymm9, %ymm4, %ymm9 vpackusdw %ymm9, %ymm8, %ymm8 vpsrld $16, %ymm5, %ymm5 vpsrld $16, %ymm4, %ymm4 vpackusdw %ymm4, %ymm5, %ymm4 vpmullw %ymm1, %ymm6, %ymm5 vpmulhw %ymm0, %ymm5, %ymm5 vpsubw %ymm5, %ymm7, %ymm5 vpmullw %ymm1, %ymm8, %ymm6 vpmulhw %ymm0, %ymm6, %ymm6 vpsubw %ymm6, %ymm4, %ymm4 vmovdqu %ymm5, 384(%rcx) vmovdqu %ymm4, 416(%rcx) vmovdqu 448(%rsi), %ymm4 vmovdqu 480(%rsi), %ymm5 vmovdqu 448(%rdi), %ymm6 vmovdqu 480(%rdi), %ymm7 vpmullw %ymm5, %ymm2, %ymm2 vpmulhw %ymm5, %ymm3, %ymm3 vpmulhw %ymm0, %ymm2, %ymm2 vpsubw %ymm2, %ymm3, %ymm2 vpmullw %ymm6, %ymm4, %ymm8 vpmulhw %ymm6, %ymm4, %ymm9 vpunpcklwd %ymm9, %ymm8, %ymm3 vpunpckhwd %ymm9, %ymm8, %ymm8 vpmullw %ymm7, %ymm4, %ymm9 vpmulhw %ymm7, %ymm4, %ymm10 vpunpcklwd %ymm10, %ymm9, %ymm4 vpunpckhwd %ymm10, %ymm9, %ymm9 vpmullw %ymm6, %ymm5, %ymm10 vpmulhw %ymm6, %ymm5, %ymm6 vpunpcklwd %ymm6, %ymm10, %ymm5 vpunpckhwd %ymm6, %ymm10, %ymm6 vpmullw %ymm7, %ymm2, %ymm10 vpmulhw %ymm7, %ymm2, %ymm2 vpunpcklwd %ymm2, %ymm10, %ymm7 vpunpckhwd %ymm2, %ymm10, %ymm2 vpsubd %ymm7, %ymm3, %ymm7 vpsubd %ymm2, %ymm8, %ymm8 vpaddd %ymm4, %ymm5, %ymm2 vpaddd %ymm9, %ymm6, %ymm3 vpxor %ymm5, %ymm5, %ymm5 vpblendw $-86, %ymm5, %ymm7, %ymm4 vpblendw $-86, %ymm5, %ymm8, %ymm6 vpackusdw %ymm6, %ymm4, %ymm4 vpsrld $16, %ymm7, %ymm6 vpsrld $16, %ymm8, %ymm7 vpackusdw %ymm7, %ymm6, %ymm6 vpblendw $-86, %ymm5, %ymm2, %ymm7 vpblendw $-86, %ymm5, %ymm3, %ymm5 vpackusdw %ymm5, %ymm7, %ymm5 vpsrld $16, %ymm2, %ymm2 vpsrld $16, %ymm3, %ymm3 vpackusdw %ymm3, %ymm2, %ymm2 vpmullw %ymm1, %ymm4, %ymm3 vpmulhw %ymm0, %ymm3, %ymm3 vpsubw %ymm3, %ymm6, %ymm3 vpmullw %ymm1, %ymm5, %ymm1 vpmulhw %ymm0, %ymm1, %ymm0 vpsubw %ymm0, %ymm2, %ymm0 vmovdqu %ymm3, 448(%rcx) vmovdqu %ymm0, 480(%rcx) jmp *%r8 L_poly_csubq$1: vmovdqu glob_data + 448(%rip), %ymm0 vmovdqu (%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, (%rcx) vmovdqu 32(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, 32(%rcx) vmovdqu 64(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, 64(%rcx) vmovdqu 96(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, 96(%rcx) vmovdqu 128(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, 128(%rcx) vmovdqu 160(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, 160(%rcx) vmovdqu 192(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, 192(%rcx) vmovdqu 224(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, 224(%rcx) vmovdqu 256(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, 256(%rcx) vmovdqu 288(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, 288(%rcx) vmovdqu 320(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, 320(%rcx) vmovdqu 352(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, 352(%rcx) vmovdqu 384(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, 384(%rcx) vmovdqu 416(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, 416(%rcx) vmovdqu 448(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm2 vpaddw %ymm1, %ymm2, %ymm1 vmovdqu %ymm1, 448(%rcx) vmovdqu 480(%rcx), %ymm1 vpsubw %ymm0, %ymm1, %ymm1 vpsraw $15, %ymm1, %ymm2 vpand %ymm0, %ymm2, %ymm0 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 480(%rcx) jmp *%r8 L_poly_add2$1: vmovdqu (%rcx), %ymm0 vmovdqu (%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, (%rcx) vmovdqu 32(%rcx), %ymm0 vmovdqu 32(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 32(%rcx) vmovdqu 64(%rcx), %ymm0 vmovdqu 64(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 64(%rcx) vmovdqu 96(%rcx), %ymm0 vmovdqu 96(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 96(%rcx) vmovdqu 128(%rcx), %ymm0 vmovdqu 128(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 128(%rcx) vmovdqu 160(%rcx), %ymm0 vmovdqu 160(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 160(%rcx) vmovdqu 192(%rcx), %ymm0 vmovdqu 192(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 192(%rcx) vmovdqu 224(%rcx), %ymm0 vmovdqu 224(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 224(%rcx) vmovdqu 256(%rcx), %ymm0 vmovdqu 256(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 256(%rcx) vmovdqu 288(%rcx), %ymm0 vmovdqu 288(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 288(%rcx) vmovdqu 320(%rcx), %ymm0 vmovdqu 320(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 320(%rcx) vmovdqu 352(%rcx), %ymm0 vmovdqu 352(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 352(%rcx) vmovdqu 384(%rcx), %ymm0 vmovdqu 384(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 384(%rcx) vmovdqu 416(%rcx), %ymm0 vmovdqu 416(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 416(%rcx) vmovdqu 448(%rcx), %ymm0 vmovdqu 448(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 448(%rcx) vmovdqu 480(%rcx), %ymm0 vmovdqu 480(%rsi), %ymm1 vpaddw %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 480(%rcx) jmp *%rdi L_nttunpack$1: vmovdqu (%rax), %ymm1 vmovdqu 32(%rax), %ymm3 vmovdqu 64(%rax), %ymm4 vmovdqu 96(%rax), %ymm5 vmovdqu 128(%rax), %ymm2 vmovdqu 160(%rax), %ymm6 vmovdqu 192(%rax), %ymm7 vmovdqu 224(%rax), %ymm8 vperm2i128 $32, %ymm2, %ymm1, %ymm0 vperm2i128 $49, %ymm2, %ymm1, %ymm1 vperm2i128 $32, %ymm6, %ymm3, %ymm2 vperm2i128 $49, %ymm6, %ymm3, %ymm3 vperm2i128 $32, %ymm7, %ymm4, %ymm6 vperm2i128 $49, %ymm7, %ymm4, %ymm7 vperm2i128 $32, %ymm8, %ymm5, %ymm9 vperm2i128 $49, %ymm8, %ymm5, %ymm10 vpunpcklqdq %ymm6, %ymm0, %ymm4 vpunpckhqdq %ymm6, %ymm0, %ymm5 vpunpcklqdq %ymm7, %ymm1, %ymm6 vpunpckhqdq %ymm7, %ymm1, %ymm7 vpunpcklqdq %ymm9, %ymm2, %ymm0 vpunpckhqdq %ymm9, %ymm2, %ymm2 vpunpcklqdq %ymm10, %ymm3, %ymm8 vpunpckhqdq %ymm10, %ymm3, %ymm3 vmovsldup %ymm0, %ymm1 vpblendd $-86, %ymm1, %ymm4, %ymm9 vpsrlq $32, %ymm4, %ymm1 vpblendd $-86, %ymm0, %ymm1, %ymm0 vmovsldup %ymm2, %ymm1 vpblendd $-86, %ymm1, %ymm5, %ymm1 vpsrlq $32, %ymm5, %ymm4 vpblendd $-86, %ymm2, %ymm4, %ymm2 vmovsldup %ymm8, %ymm4 vpblendd $-86, %ymm4, %ymm6, %ymm4 vpsrlq $32, %ymm6, %ymm5 vpblendd $-86, %ymm8, %ymm5, %ymm5 vmovsldup %ymm3, %ymm6 vpblendd $-86, %ymm6, %ymm7, %ymm6 vpsrlq $32, %ymm7, %ymm7 vpblendd $-86, %ymm3, %ymm7, %ymm3 vpslld $16, %ymm4, %ymm7 vpblendw $-86, %ymm7, %ymm9, %ymm7 vpsrld $16, %ymm9, %ymm8 vpblendw $-86, %ymm4, %ymm8, %ymm4 vpslld $16, %ymm5, %ymm8 vpblendw $-86, %ymm8, %ymm0, %ymm8 vpsrld $16, %ymm0, %ymm0 vpblendw $-86, %ymm5, %ymm0, %ymm0 vpslld $16, %ymm6, %ymm5 vpblendw $-86, %ymm5, %ymm1, %ymm5 vpsrld $16, %ymm1, %ymm1 vpblendw $-86, %ymm6, %ymm1, %ymm1 vpslld $16, %ymm3, %ymm6 vpblendw $-86, %ymm6, %ymm2, %ymm6 vpsrld $16, %ymm2, %ymm2 vpblendw $-86, %ymm3, %ymm2, %ymm2 vmovdqu %ymm7, (%rax) vmovdqu %ymm4, 32(%rax) vmovdqu %ymm8, 64(%rax) vmovdqu %ymm0, 96(%rax) vmovdqu %ymm5, 128(%rax) vmovdqu %ymm1, 160(%rax) vmovdqu %ymm6, 192(%rax) vmovdqu %ymm2, 224(%rax) vmovdqu 256(%rax), %ymm1 vmovdqu 288(%rax), %ymm3 vmovdqu 320(%rax), %ymm4 vmovdqu 352(%rax), %ymm5 vmovdqu 384(%rax), %ymm2 vmovdqu 416(%rax), %ymm6 vmovdqu 448(%rax), %ymm7 vmovdqu 480(%rax), %ymm8 vperm2i128 $32, %ymm2, %ymm1, %ymm0 vperm2i128 $49, %ymm2, %ymm1, %ymm1 vperm2i128 $32, %ymm6, %ymm3, %ymm2 vperm2i128 $49, %ymm6, %ymm3, %ymm3 vperm2i128 $32, %ymm7, %ymm4, %ymm6 vperm2i128 $49, %ymm7, %ymm4, %ymm7 vperm2i128 $32, %ymm8, %ymm5, %ymm9 vperm2i128 $49, %ymm8, %ymm5, %ymm10 vpunpcklqdq %ymm6, %ymm0, %ymm4 vpunpckhqdq %ymm6, %ymm0, %ymm5 vpunpcklqdq %ymm7, %ymm1, %ymm6 vpunpckhqdq %ymm7, %ymm1, %ymm7 vpunpcklqdq %ymm9, %ymm2, %ymm0 vpunpckhqdq %ymm9, %ymm2, %ymm2 vpunpcklqdq %ymm10, %ymm3, %ymm8 vpunpckhqdq %ymm10, %ymm3, %ymm3 vmovsldup %ymm0, %ymm1 vpblendd $-86, %ymm1, %ymm4, %ymm9 vpsrlq $32, %ymm4, %ymm1 vpblendd $-86, %ymm0, %ymm1, %ymm0 vmovsldup %ymm2, %ymm1 vpblendd $-86, %ymm1, %ymm5, %ymm1 vpsrlq $32, %ymm5, %ymm4 vpblendd $-86, %ymm2, %ymm4, %ymm2 vmovsldup %ymm8, %ymm4 vpblendd $-86, %ymm4, %ymm6, %ymm4 vpsrlq $32, %ymm6, %ymm5 vpblendd $-86, %ymm8, %ymm5, %ymm5 vmovsldup %ymm3, %ymm6 vpblendd $-86, %ymm6, %ymm7, %ymm6 vpsrlq $32, %ymm7, %ymm7 vpblendd $-86, %ymm3, %ymm7, %ymm3 vpslld $16, %ymm4, %ymm7 vpblendw $-86, %ymm7, %ymm9, %ymm7 vpsrld $16, %ymm9, %ymm8 vpblendw $-86, %ymm4, %ymm8, %ymm4 vpslld $16, %ymm5, %ymm8 vpblendw $-86, %ymm8, %ymm0, %ymm8 vpsrld $16, %ymm0, %ymm0 vpblendw $-86, %ymm5, %ymm0, %ymm0 vpslld $16, %ymm6, %ymm5 vpblendw $-86, %ymm5, %ymm1, %ymm5 vpsrld $16, %ymm1, %ymm1 vpblendw $-86, %ymm6, %ymm1, %ymm1 vpslld $16, %ymm3, %ymm6 vpblendw $-86, %ymm6, %ymm2, %ymm6 vpsrld $16, %ymm2, %ymm2 vpblendw $-86, %ymm3, %ymm2, %ymm2 vmovdqu %ymm7, 256(%rax) vmovdqu %ymm4, 288(%rax) vmovdqu %ymm8, 320(%rax) vmovdqu %ymm0, 352(%rax) vmovdqu %ymm5, 384(%rax) vmovdqu %ymm1, 416(%rax) vmovdqu %ymm6, 448(%rax) vmovdqu %ymm2, 480(%rax) jmp *%rcx L_nttpack$1: vmovdqu (%rax), %ymm0 vmovdqu 32(%rax), %ymm1 vmovdqu 64(%rax), %ymm8 vmovdqu 96(%rax), %ymm9 vmovdqu 128(%rax), %ymm2 vmovdqu 160(%rax), %ymm3 vmovdqu 192(%rax), %ymm4 vmovdqu 224(%rax), %ymm5 vpslld $16, %ymm1, %ymm6 vpblendw $-86, %ymm6, %ymm0, %ymm6 vpsrld $16, %ymm0, %ymm0 vpblendw $-86, %ymm1, %ymm0, %ymm0 vpslld $16, %ymm9, %ymm1 vpblendw $-86, %ymm1, %ymm8, %ymm7 vpsrld $16, %ymm8, %ymm1 vpblendw $-86, %ymm9, %ymm1, %ymm1 vpslld $16, %ymm3, %ymm8 vpblendw $-86, %ymm8, %ymm2, %ymm8 vpsrld $16, %ymm2, %ymm2 vpblendw $-86, %ymm3, %ymm2, %ymm2 vpslld $16, %ymm5, %ymm3 vpblendw $-86, %ymm3, %ymm4, %ymm3 vpsrld $16, %ymm4, %ymm4 vpblendw $-86, %ymm5, %ymm4, %ymm4 vmovsldup %ymm7, %ymm5 vpblendd $-86, %ymm5, %ymm6, %ymm5 vpsrlq $32, %ymm6, %ymm6 vpblendd $-86, %ymm7, %ymm6, %ymm6 vmovsldup %ymm3, %ymm7 vpblendd $-86, %ymm7, %ymm8, %ymm7 vpsrlq $32, %ymm8, %ymm8 vpblendd $-86, %ymm3, %ymm8, %ymm3 vmovsldup %ymm1, %ymm8 vpblendd $-86, %ymm8, %ymm0, %ymm8 vpsrlq $32, %ymm0, %ymm0 vpblendd $-86, %ymm1, %ymm0, %ymm0 vmovsldup %ymm4, %ymm1 vpblendd $-86, %ymm1, %ymm2, %ymm9 vpsrlq $32, %ymm2, %ymm1 vpblendd $-86, %ymm4, %ymm1, %ymm10 vpunpcklqdq %ymm7, %ymm5, %ymm1 vpunpckhqdq %ymm7, %ymm5, %ymm2 vpunpcklqdq %ymm9, %ymm8, %ymm5 vpunpckhqdq %ymm9, %ymm8, %ymm4 vpunpcklqdq %ymm3, %ymm6, %ymm7 vpunpckhqdq %ymm3, %ymm6, %ymm3 vpunpcklqdq %ymm10, %ymm0, %ymm6 vpunpckhqdq %ymm10, %ymm0, %ymm0 vperm2i128 $32, %ymm5, %ymm1, %ymm8 vperm2i128 $49, %ymm5, %ymm1, %ymm1 vperm2i128 $32, %ymm6, %ymm7, %ymm5 vperm2i128 $49, %ymm6, %ymm7, %ymm6 vperm2i128 $32, %ymm4, %ymm2, %ymm7 vperm2i128 $49, %ymm4, %ymm2, %ymm2 vperm2i128 $32, %ymm0, %ymm3, %ymm4 vperm2i128 $49, %ymm0, %ymm3, %ymm0 vmovdqu %ymm8, (%rax) vmovdqu %ymm5, 32(%rax) vmovdqu %ymm7, 64(%rax) vmovdqu %ymm4, 96(%rax) vmovdqu %ymm1, 128(%rax) vmovdqu %ymm6, 160(%rax) vmovdqu %ymm2, 192(%rax) vmovdqu %ymm0, 224(%rax) vmovdqu 256(%rax), %ymm0 vmovdqu 288(%rax), %ymm1 vmovdqu 320(%rax), %ymm8 vmovdqu 352(%rax), %ymm9 vmovdqu 384(%rax), %ymm2 vmovdqu 416(%rax), %ymm3 vmovdqu 448(%rax), %ymm4 vmovdqu 480(%rax), %ymm5 vpslld $16, %ymm1, %ymm6 vpblendw $-86, %ymm6, %ymm0, %ymm6 vpsrld $16, %ymm0, %ymm0 vpblendw $-86, %ymm1, %ymm0, %ymm0 vpslld $16, %ymm9, %ymm1 vpblendw $-86, %ymm1, %ymm8, %ymm7 vpsrld $16, %ymm8, %ymm1 vpblendw $-86, %ymm9, %ymm1, %ymm1 vpslld $16, %ymm3, %ymm8 vpblendw $-86, %ymm8, %ymm2, %ymm8 vpsrld $16, %ymm2, %ymm2 vpblendw $-86, %ymm3, %ymm2, %ymm2 vpslld $16, %ymm5, %ymm3 vpblendw $-86, %ymm3, %ymm4, %ymm3 vpsrld $16, %ymm4, %ymm4 vpblendw $-86, %ymm5, %ymm4, %ymm4 vmovsldup %ymm7, %ymm5 vpblendd $-86, %ymm5, %ymm6, %ymm5 vpsrlq $32, %ymm6, %ymm6 vpblendd $-86, %ymm7, %ymm6, %ymm6 vmovsldup %ymm3, %ymm7 vpblendd $-86, %ymm7, %ymm8, %ymm7 vpsrlq $32, %ymm8, %ymm8 vpblendd $-86, %ymm3, %ymm8, %ymm3 vmovsldup %ymm1, %ymm8 vpblendd $-86, %ymm8, %ymm0, %ymm8 vpsrlq $32, %ymm0, %ymm0 vpblendd $-86, %ymm1, %ymm0, %ymm0 vmovsldup %ymm4, %ymm1 vpblendd $-86, %ymm1, %ymm2, %ymm9 vpsrlq $32, %ymm2, %ymm1 vpblendd $-86, %ymm4, %ymm1, %ymm10 vpunpcklqdq %ymm7, %ymm5, %ymm1 vpunpckhqdq %ymm7, %ymm5, %ymm2 vpunpcklqdq %ymm9, %ymm8, %ymm5 vpunpckhqdq %ymm9, %ymm8, %ymm4 vpunpcklqdq %ymm3, %ymm6, %ymm7 vpunpckhqdq %ymm3, %ymm6, %ymm3 vpunpcklqdq %ymm10, %ymm0, %ymm6 vpunpckhqdq %ymm10, %ymm0, %ymm0 vperm2i128 $32, %ymm5, %ymm1, %ymm8 vperm2i128 $49, %ymm5, %ymm1, %ymm1 vperm2i128 $32, %ymm6, %ymm7, %ymm5 vperm2i128 $49, %ymm6, %ymm7, %ymm6 vperm2i128 $32, %ymm4, %ymm2, %ymm7 vperm2i128 $49, %ymm4, %ymm2, %ymm2 vperm2i128 $32, %ymm0, %ymm3, %ymm4 vperm2i128 $49, %ymm0, %ymm3, %ymm0 vmovdqu %ymm8, 256(%rax) vmovdqu %ymm5, 288(%rax) vmovdqu %ymm7, 320(%rax) vmovdqu %ymm4, 352(%rax) vmovdqu %ymm1, 384(%rax) vmovdqu %ymm6, 416(%rax) vmovdqu %ymm2, 448(%rax) vmovdqu %ymm0, 480(%rax) jmp *%rcx L_shake256_absorb4x_33$1: vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, (%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 32(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 64(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 96(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 128(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 160(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 192(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 224(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 256(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 288(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 320(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 352(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 384(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 416(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 448(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 480(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 512(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 544(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 576(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 608(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 640(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 672(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 704(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 736(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 768(%rax) movq (%rcx), %rbx xorq %rbx, (%rax) movq (%rdx), %rbx xorq %rbx, 8(%rax) movq (%rsi), %rbx xorq %rbx, 16(%rax) movq (%r11), %rbx xorq %rbx, 24(%rax) movq 8(%rcx), %rbx xorq %rbx, 32(%rax) movq 8(%rdx), %rbx xorq %rbx, 40(%rax) movq 8(%rsi), %rbx xorq %rbx, 48(%rax) movq 8(%r11), %rbx xorq %rbx, 56(%rax) movq 16(%rcx), %rbx xorq %rbx, 64(%rax) movq 16(%rdx), %rbx xorq %rbx, 72(%rax) movq 16(%rsi), %rbx xorq %rbx, 80(%rax) movq 16(%r11), %rbx xorq %rbx, 88(%rax) movq 24(%rcx), %rbx xorq %rbx, 96(%rax) movq 24(%rdx), %rbx xorq %rbx, 104(%rax) movq 24(%rsi), %rbx xorq %rbx, 112(%rax) movq 24(%r11), %rbx xorq %rbx, 120(%rax) movb 32(%rcx), %cl xorb %cl, 128(%rax) xorb $31, 129(%rax) movb 32(%rdx), %cl xorb %cl, 136(%rax) xorb $31, 137(%rax) movb 32(%rsi), %cl xorb %cl, 144(%rax) xorb $31, 145(%rax) movb 32(%r11), %cl xorb %cl, 152(%rax) xorb $31, 153(%rax) vmovdqu glob_data + 2080(%rip), %ymm0 vmovdqu 512(%rax), %ymm1 vpxor %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 512(%rax) jmp *(%rsp) L_shake128_absorb4x_34$1: vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, (%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 32(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 64(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 96(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 128(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 160(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 192(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 224(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 256(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 288(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 320(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 352(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 384(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 416(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 448(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 480(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 512(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 544(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 576(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 608(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 640(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 672(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 704(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 736(%rax) vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, 768(%rax) movq (%rcx), %r8 xorq %r8, (%rax) movq (%rdx), %r8 xorq %r8, 8(%rax) movq (%rsi), %r8 xorq %r8, 16(%rax) movq (%rdi), %r8 xorq %r8, 24(%rax) movq 8(%rcx), %r8 xorq %r8, 32(%rax) movq 8(%rdx), %r8 xorq %r8, 40(%rax) movq 8(%rsi), %r8 xorq %r8, 48(%rax) movq 8(%rdi), %r8 xorq %r8, 56(%rax) movq 16(%rcx), %r8 xorq %r8, 64(%rax) movq 16(%rdx), %r8 xorq %r8, 72(%rax) movq 16(%rsi), %r8 xorq %r8, 80(%rax) movq 16(%rdi), %r8 xorq %r8, 88(%rax) movq 24(%rcx), %r8 xorq %r8, 96(%rax) movq 24(%rdx), %r8 xorq %r8, 104(%rax) movq 24(%rsi), %r8 xorq %r8, 112(%rax) movq 24(%rdi), %r8 xorq %r8, 120(%rax) movw 32(%rcx), %cx xorw %cx, 128(%rax) xorb $31, 130(%rax) movw 32(%rdx), %cx xorw %cx, 136(%rax) xorb $31, 138(%rax) movw 32(%rsi), %cx xorw %cx, 144(%rax) xorb $31, 146(%rax) movw 32(%rdi), %cx xorw %cx, 152(%rax) xorb $31, 154(%rax) vmovdqu glob_data + 2080(%rip), %ymm0 vmovdqu 640(%rax), %ymm1 vpxor %ymm1, %ymm0, %ymm0 vmovdqu %ymm0, 640(%rax) jmp *(%rsp) L_keccakf1600_4x_avx2$1: movq %rsp, %rcx leaq glob_data + 2176(%rip), %rdx vmovdqu glob_data + 2112(%rip), %ymm0 vmovdqu glob_data + 2144(%rip), %ymm1 movq $0, %rsi L_keccakf1600_4x_avx2$2: vmovdqu (%rdx,%rsi), %ymm2 vmovdqu (%rax), %ymm3 vmovdqu 32(%rax), %ymm4 vmovdqu 64(%rax), %ymm5 vmovdqu 96(%rax), %ymm6 vmovdqu 128(%rax), %ymm7 vpxor 160(%rax), %ymm3, %ymm3 vpxor 192(%rax), %ymm4, %ymm4 vpxor 224(%rax), %ymm5, %ymm5 vpxor 256(%rax), %ymm6, %ymm6 vpxor 288(%rax), %ymm7, %ymm7 vpxor 320(%rax), %ymm3, %ymm3 vpxor 352(%rax), %ymm4, %ymm4 vpxor 384(%rax), %ymm5, %ymm5 vpxor 416(%rax), %ymm6, %ymm6 vpxor 448(%rax), %ymm7, %ymm7 vpxor 480(%rax), %ymm3, %ymm3 vpxor 512(%rax), %ymm4, %ymm4 vpxor 544(%rax), %ymm5, %ymm8 vpxor 576(%rax), %ymm6, %ymm9 vpxor 608(%rax), %ymm7, %ymm10 vpxor 640(%rax), %ymm3, %ymm7 vpxor 672(%rax), %ymm4, %ymm5 vpxor 704(%rax), %ymm8, %ymm6 vpxor 736(%rax), %ymm9, %ymm8 vpxor 768(%rax), %ymm10, %ymm9 vmovdqu %ymm5, %ymm3 vpsllq $1, %ymm3, %ymm4 vpsrlq $63, %ymm3, %ymm3 vpor %ymm4, %ymm3, %ymm3 vpxor %ymm9, %ymm3, %ymm3 vmovdqu %ymm6, %ymm4 vpsllq $1, %ymm4, %ymm10 vpsrlq $63, %ymm4, %ymm4 vpor %ymm10, %ymm4, %ymm4 vpxor %ymm7, %ymm4, %ymm4 vmovdqu %ymm8, %ymm10 vpsllq $1, %ymm10, %ymm11 vpsrlq $63, %ymm10, %ymm10 vpor %ymm11, %ymm10, %ymm10 vpxor %ymm5, %ymm10, %ymm5 vpsllq $1, %ymm9, %ymm10 vpsrlq $63, %ymm9, %ymm9 vpor %ymm10, %ymm9, %ymm9 vpxor %ymm6, %ymm9, %ymm6 vpsllq $1, %ymm7, %ymm9 vpsrlq $63, %ymm7, %ymm7 vpor %ymm9, %ymm7, %ymm7 vpxor %ymm8, %ymm7, %ymm7 vmovdqu (%rax), %ymm8 vpxor %ymm3, %ymm8, %ymm8 vmovdqu 192(%rax), %ymm9 vpxor %ymm4, %ymm9, %ymm9 vpsllq $44, %ymm9, %ymm10 vpsrlq $20, %ymm9, %ymm9 vpor %ymm10, %ymm9, %ymm9 vmovdqu 384(%rax), %ymm10 vpxor %ymm5, %ymm10, %ymm10 vpsllq $43, %ymm10, %ymm11 vpsrlq $21, %ymm10, %ymm10 vpor %ymm11, %ymm10, %ymm10 vmovdqu 576(%rax), %ymm11 vpxor %ymm6, %ymm11, %ymm11 vpsllq $21, %ymm11, %ymm12 vpsrlq $43, %ymm11, %ymm11 vpor %ymm12, %ymm11, %ymm11 vmovdqu 768(%rax), %ymm12 vpxor %ymm7, %ymm12, %ymm12 vpsllq $14, %ymm12, %ymm13 vpsrlq $50, %ymm12, %ymm12 vpor %ymm13, %ymm12, %ymm12 vpandn %ymm10, %ymm9, %ymm13 vpxor %ymm8, %ymm13, %ymm13 vpxor %ymm2, %ymm13, %ymm2 vmovdqu %ymm2, (%rcx) vpandn %ymm11, %ymm10, %ymm2 vpxor %ymm9, %ymm2, %ymm2 vmovdqu %ymm2, 32(%rcx) vpandn %ymm12, %ymm11, %ymm2 vpxor %ymm10, %ymm2, %ymm2 vmovdqu %ymm2, 64(%rcx) vpandn %ymm8, %ymm12, %ymm2 vpxor %ymm11, %ymm2, %ymm2 vmovdqu %ymm2, 96(%rcx) vpandn %ymm9, %ymm8, %ymm2 vpxor %ymm12, %ymm2, %ymm2 vmovdqu %ymm2, 128(%rcx) vmovdqu 96(%rax), %ymm2 vpxor %ymm6, %ymm2, %ymm2 vpsllq $28, %ymm2, %ymm8 vpsrlq $36, %ymm2, %ymm2 vpor %ymm8, %ymm2, %ymm2 vmovdqu 288(%rax), %ymm8 vpxor %ymm7, %ymm8, %ymm8 vpsllq $20, %ymm8, %ymm9 vpsrlq $44, %ymm8, %ymm8 vpor %ymm9, %ymm8, %ymm8 vmovdqu 320(%rax), %ymm9 vpxor %ymm3, %ymm9, %ymm9 vpsllq $3, %ymm9, %ymm10 vpsrlq $61, %ymm9, %ymm9 vpor %ymm10, %ymm9, %ymm9 vmovdqu 512(%rax), %ymm10 vpxor %ymm4, %ymm10, %ymm10 vpsllq $45, %ymm10, %ymm11 vpsrlq $19, %ymm10, %ymm10 vpor %ymm11, %ymm10, %ymm10 vmovdqu 704(%rax), %ymm11 vpxor %ymm5, %ymm11, %ymm11 vpsllq $61, %ymm11, %ymm12 vpsrlq $3, %ymm11, %ymm11 vpor %ymm12, %ymm11, %ymm11 vpandn %ymm9, %ymm8, %ymm12 vpxor %ymm2, %ymm12, %ymm12 vmovdqu %ymm12, 160(%rcx) vpandn %ymm10, %ymm9, %ymm12 vpxor %ymm8, %ymm12, %ymm12 vmovdqu %ymm12, 192(%rcx) vpandn %ymm11, %ymm10, %ymm12 vpxor %ymm9, %ymm12, %ymm9 vmovdqu %ymm9, 224(%rcx) vpandn %ymm2, %ymm11, %ymm9 vpxor %ymm10, %ymm9, %ymm9 vmovdqu %ymm9, 256(%rcx) vpandn %ymm8, %ymm2, %ymm2 vpxor %ymm11, %ymm2, %ymm2 vmovdqu %ymm2, 288(%rcx) vmovdqu 32(%rax), %ymm2 vpxor %ymm4, %ymm2, %ymm2 vpsllq $1, %ymm2, %ymm8 vpsrlq $63, %ymm2, %ymm2 vpor %ymm8, %ymm2, %ymm2 vmovdqu 224(%rax), %ymm8 vpxor %ymm5, %ymm8, %ymm8 vpsllq $6, %ymm8, %ymm9 vpsrlq $58, %ymm8, %ymm8 vpor %ymm9, %ymm8, %ymm8 vmovdqu 416(%rax), %ymm9 vpxor %ymm6, %ymm9, %ymm9 vpsllq $25, %ymm9, %ymm10 vpsrlq $39, %ymm9, %ymm9 vpor %ymm10, %ymm9, %ymm9 vmovdqu 608(%rax), %ymm10 vpxor %ymm7, %ymm10, %ymm10 vpshufb %ymm0, %ymm10, %ymm10 vmovdqu 640(%rax), %ymm11 vpxor %ymm3, %ymm11, %ymm11 vpsllq $18, %ymm11, %ymm12 vpsrlq $46, %ymm11, %ymm11 vpor %ymm12, %ymm11, %ymm11 vpandn %ymm9, %ymm8, %ymm12 vpxor %ymm2, %ymm12, %ymm12 vmovdqu %ymm12, 320(%rcx) vpandn %ymm10, %ymm9, %ymm12 vpxor %ymm8, %ymm12, %ymm12 vmovdqu %ymm12, 352(%rcx) vpandn %ymm11, %ymm10, %ymm12 vpxor %ymm9, %ymm12, %ymm9 vmovdqu %ymm9, 384(%rcx) vpandn %ymm2, %ymm11, %ymm9 vpxor %ymm10, %ymm9, %ymm9 vmovdqu %ymm9, 416(%rcx) vpandn %ymm8, %ymm2, %ymm2 vpxor %ymm11, %ymm2, %ymm2 vmovdqu %ymm2, 448(%rcx) vmovdqu 128(%rax), %ymm2 vpxor %ymm7, %ymm2, %ymm2 vpsllq $27, %ymm2, %ymm8 vpsrlq $37, %ymm2, %ymm2 vpor %ymm8, %ymm2, %ymm2 vmovdqu 160(%rax), %ymm8 vpxor %ymm3, %ymm8, %ymm8 vpsllq $36, %ymm8, %ymm9 vpsrlq $28, %ymm8, %ymm8 vpor %ymm9, %ymm8, %ymm8 vmovdqu 352(%rax), %ymm9 vpxor %ymm4, %ymm9, %ymm9 vpsllq $10, %ymm9, %ymm10 vpsrlq $54, %ymm9, %ymm9 vpor %ymm10, %ymm9, %ymm9 vmovdqu 544(%rax), %ymm10 vpxor %ymm5, %ymm10, %ymm10 vpsllq $15, %ymm10, %ymm11 vpsrlq $49, %ymm10, %ymm10 vpor %ymm11, %ymm10, %ymm10 vmovdqu 736(%rax), %ymm11 vpxor %ymm6, %ymm11, %ymm11 vpshufb %ymm1, %ymm11, %ymm11 vpandn %ymm9, %ymm8, %ymm12 vpxor %ymm2, %ymm12, %ymm12 vmovdqu %ymm12, 480(%rcx) vpandn %ymm10, %ymm9, %ymm12 vpxor %ymm8, %ymm12, %ymm12 vmovdqu %ymm12, 512(%rcx) vpandn %ymm11, %ymm10, %ymm12 vpxor %ymm9, %ymm12, %ymm9 vmovdqu %ymm9, 544(%rcx) vpandn %ymm2, %ymm11, %ymm9 vpxor %ymm10, %ymm9, %ymm9 vmovdqu %ymm9, 576(%rcx) vpandn %ymm8, %ymm2, %ymm2 vpxor %ymm11, %ymm2, %ymm2 vmovdqu %ymm2, 608(%rcx) vmovdqu 64(%rax), %ymm2 vpxor %ymm5, %ymm2, %ymm2 vpsllq $62, %ymm2, %ymm5 vpsrlq $2, %ymm2, %ymm2 vpor %ymm5, %ymm2, %ymm2 vmovdqu 256(%rax), %ymm5 vpxor %ymm6, %ymm5, %ymm5 vpsllq $55, %ymm5, %ymm6 vpsrlq $9, %ymm5, %ymm5 vpor %ymm6, %ymm5, %ymm5 vmovdqu 448(%rax), %ymm6 vpxor %ymm7, %ymm6, %ymm6 vpsllq $39, %ymm6, %ymm7 vpsrlq $25, %ymm6, %ymm6 vpor %ymm7, %ymm6, %ymm6 vmovdqu 480(%rax), %ymm7 vpxor %ymm3, %ymm7, %ymm3 vpsllq $41, %ymm3, %ymm7 vpsrlq $23, %ymm3, %ymm3 vpor %ymm7, %ymm3, %ymm3 vmovdqu 672(%rax), %ymm7 vpxor %ymm4, %ymm7, %ymm4 vpsllq $2, %ymm4, %ymm7 vpsrlq $62, %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpandn %ymm6, %ymm5, %ymm7 vpxor %ymm2, %ymm7, %ymm7 vmovdqu %ymm7, 640(%rcx) vpandn %ymm3, %ymm6, %ymm7 vpxor %ymm5, %ymm7, %ymm7 vmovdqu %ymm7, 672(%rcx) vpandn %ymm4, %ymm3, %ymm7 vpxor %ymm6, %ymm7, %ymm6 vmovdqu %ymm6, 704(%rcx) vpandn %ymm2, %ymm4, %ymm6 vpxor %ymm3, %ymm6, %ymm3 vmovdqu %ymm3, 736(%rcx) vpandn %ymm5, %ymm2, %ymm2 vpxor %ymm4, %ymm2, %ymm2 vmovdqu %ymm2, 768(%rcx) vmovdqu 32(%rdx,%rsi), %ymm2 vmovdqu (%rcx), %ymm3 vmovdqu 32(%rcx), %ymm4 vmovdqu 64(%rcx), %ymm5 vmovdqu 96(%rcx), %ymm6 vmovdqu 128(%rcx), %ymm7 vpxor 160(%rcx), %ymm3, %ymm3 vpxor 192(%rcx), %ymm4, %ymm4 vpxor 224(%rcx), %ymm5, %ymm5 vpxor 256(%rcx), %ymm6, %ymm6 vpxor 288(%rcx), %ymm7, %ymm7 vpxor 320(%rcx), %ymm3, %ymm3 vpxor 352(%rcx), %ymm4, %ymm4 vpxor 384(%rcx), %ymm5, %ymm5 vpxor 416(%rcx), %ymm6, %ymm6 vpxor 448(%rcx), %ymm7, %ymm7 vpxor 480(%rcx), %ymm3, %ymm3 vpxor 512(%rcx), %ymm4, %ymm4 vpxor 544(%rcx), %ymm5, %ymm8 vpxor 576(%rcx), %ymm6, %ymm9 vpxor 608(%rcx), %ymm7, %ymm10 vpxor 640(%rcx), %ymm3, %ymm7 vpxor 672(%rcx), %ymm4, %ymm5 vpxor 704(%rcx), %ymm8, %ymm6 vpxor 736(%rcx), %ymm9, %ymm8 vpxor 768(%rcx), %ymm10, %ymm9 vmovdqu %ymm5, %ymm3 vpsllq $1, %ymm3, %ymm4 vpsrlq $63, %ymm3, %ymm3 vpor %ymm4, %ymm3, %ymm3 vpxor %ymm9, %ymm3, %ymm3 vmovdqu %ymm6, %ymm4 vpsllq $1, %ymm4, %ymm10 vpsrlq $63, %ymm4, %ymm4 vpor %ymm10, %ymm4, %ymm4 vpxor %ymm7, %ymm4, %ymm4 vmovdqu %ymm8, %ymm10 vpsllq $1, %ymm10, %ymm11 vpsrlq $63, %ymm10, %ymm10 vpor %ymm11, %ymm10, %ymm10 vpxor %ymm5, %ymm10, %ymm5 vpsllq $1, %ymm9, %ymm10 vpsrlq $63, %ymm9, %ymm9 vpor %ymm10, %ymm9, %ymm9 vpxor %ymm6, %ymm9, %ymm6 vpsllq $1, %ymm7, %ymm9 vpsrlq $63, %ymm7, %ymm7 vpor %ymm9, %ymm7, %ymm7 vpxor %ymm8, %ymm7, %ymm7 vmovdqu (%rcx), %ymm8 vpxor %ymm3, %ymm8, %ymm8 vmovdqu 192(%rcx), %ymm9 vpxor %ymm4, %ymm9, %ymm9 vpsllq $44, %ymm9, %ymm10 vpsrlq $20, %ymm9, %ymm9 vpor %ymm10, %ymm9, %ymm9 vmovdqu 384(%rcx), %ymm10 vpxor %ymm5, %ymm10, %ymm10 vpsllq $43, %ymm10, %ymm11 vpsrlq $21, %ymm10, %ymm10 vpor %ymm11, %ymm10, %ymm10 vmovdqu 576(%rcx), %ymm11 vpxor %ymm6, %ymm11, %ymm11 vpsllq $21, %ymm11, %ymm12 vpsrlq $43, %ymm11, %ymm11 vpor %ymm12, %ymm11, %ymm11 vmovdqu 768(%rcx), %ymm12 vpxor %ymm7, %ymm12, %ymm12 vpsllq $14, %ymm12, %ymm13 vpsrlq $50, %ymm12, %ymm12 vpor %ymm13, %ymm12, %ymm12 vpandn %ymm10, %ymm9, %ymm13 vpxor %ymm8, %ymm13, %ymm13 vpxor %ymm2, %ymm13, %ymm2 vmovdqu %ymm2, (%rax) vpandn %ymm11, %ymm10, %ymm2 vpxor %ymm9, %ymm2, %ymm2 vmovdqu %ymm2, 32(%rax) vpandn %ymm12, %ymm11, %ymm2 vpxor %ymm10, %ymm2, %ymm2 vmovdqu %ymm2, 64(%rax) vpandn %ymm8, %ymm12, %ymm2 vpxor %ymm11, %ymm2, %ymm2 vmovdqu %ymm2, 96(%rax) vpandn %ymm9, %ymm8, %ymm2 vpxor %ymm12, %ymm2, %ymm2 vmovdqu %ymm2, 128(%rax) vmovdqu 96(%rcx), %ymm2 vpxor %ymm6, %ymm2, %ymm2 vpsllq $28, %ymm2, %ymm8 vpsrlq $36, %ymm2, %ymm2 vpor %ymm8, %ymm2, %ymm2 vmovdqu 288(%rcx), %ymm8 vpxor %ymm7, %ymm8, %ymm8 vpsllq $20, %ymm8, %ymm9 vpsrlq $44, %ymm8, %ymm8 vpor %ymm9, %ymm8, %ymm8 vmovdqu 320(%rcx), %ymm9 vpxor %ymm3, %ymm9, %ymm9 vpsllq $3, %ymm9, %ymm10 vpsrlq $61, %ymm9, %ymm9 vpor %ymm10, %ymm9, %ymm9 vmovdqu 512(%rcx), %ymm10 vpxor %ymm4, %ymm10, %ymm10 vpsllq $45, %ymm10, %ymm11 vpsrlq $19, %ymm10, %ymm10 vpor %ymm11, %ymm10, %ymm10 vmovdqu 704(%rcx), %ymm11 vpxor %ymm5, %ymm11, %ymm11 vpsllq $61, %ymm11, %ymm12 vpsrlq $3, %ymm11, %ymm11 vpor %ymm12, %ymm11, %ymm11 vpandn %ymm9, %ymm8, %ymm12 vpxor %ymm2, %ymm12, %ymm12 vmovdqu %ymm12, 160(%rax) vpandn %ymm10, %ymm9, %ymm12 vpxor %ymm8, %ymm12, %ymm12 vmovdqu %ymm12, 192(%rax) vpandn %ymm11, %ymm10, %ymm12 vpxor %ymm9, %ymm12, %ymm9 vmovdqu %ymm9, 224(%rax) vpandn %ymm2, %ymm11, %ymm9 vpxor %ymm10, %ymm9, %ymm9 vmovdqu %ymm9, 256(%rax) vpandn %ymm8, %ymm2, %ymm2 vpxor %ymm11, %ymm2, %ymm2 vmovdqu %ymm2, 288(%rax) vmovdqu 32(%rcx), %ymm2 vpxor %ymm4, %ymm2, %ymm2 vpsllq $1, %ymm2, %ymm8 vpsrlq $63, %ymm2, %ymm2 vpor %ymm8, %ymm2, %ymm2 vmovdqu 224(%rcx), %ymm8 vpxor %ymm5, %ymm8, %ymm8 vpsllq $6, %ymm8, %ymm9 vpsrlq $58, %ymm8, %ymm8 vpor %ymm9, %ymm8, %ymm8 vmovdqu 416(%rcx), %ymm9 vpxor %ymm6, %ymm9, %ymm9 vpsllq $25, %ymm9, %ymm10 vpsrlq $39, %ymm9, %ymm9 vpor %ymm10, %ymm9, %ymm9 vmovdqu 608(%rcx), %ymm10 vpxor %ymm7, %ymm10, %ymm10 vpshufb %ymm0, %ymm10, %ymm10 vmovdqu 640(%rcx), %ymm11 vpxor %ymm3, %ymm11, %ymm11 vpsllq $18, %ymm11, %ymm12 vpsrlq $46, %ymm11, %ymm11 vpor %ymm12, %ymm11, %ymm11 vpandn %ymm9, %ymm8, %ymm12 vpxor %ymm2, %ymm12, %ymm12 vmovdqu %ymm12, 320(%rax) vpandn %ymm10, %ymm9, %ymm12 vpxor %ymm8, %ymm12, %ymm12 vmovdqu %ymm12, 352(%rax) vpandn %ymm11, %ymm10, %ymm12 vpxor %ymm9, %ymm12, %ymm9 vmovdqu %ymm9, 384(%rax) vpandn %ymm2, %ymm11, %ymm9 vpxor %ymm10, %ymm9, %ymm9 vmovdqu %ymm9, 416(%rax) vpandn %ymm8, %ymm2, %ymm2 vpxor %ymm11, %ymm2, %ymm2 vmovdqu %ymm2, 448(%rax) vmovdqu 128(%rcx), %ymm2 vpxor %ymm7, %ymm2, %ymm2 vpsllq $27, %ymm2, %ymm8 vpsrlq $37, %ymm2, %ymm2 vpor %ymm8, %ymm2, %ymm2 vmovdqu 160(%rcx), %ymm8 vpxor %ymm3, %ymm8, %ymm8 vpsllq $36, %ymm8, %ymm9 vpsrlq $28, %ymm8, %ymm8 vpor %ymm9, %ymm8, %ymm8 vmovdqu 352(%rcx), %ymm9 vpxor %ymm4, %ymm9, %ymm9 vpsllq $10, %ymm9, %ymm10 vpsrlq $54, %ymm9, %ymm9 vpor %ymm10, %ymm9, %ymm9 vmovdqu 544(%rcx), %ymm10 vpxor %ymm5, %ymm10, %ymm10 vpsllq $15, %ymm10, %ymm11 vpsrlq $49, %ymm10, %ymm10 vpor %ymm11, %ymm10, %ymm10 vmovdqu 736(%rcx), %ymm11 vpxor %ymm6, %ymm11, %ymm11 vpshufb %ymm1, %ymm11, %ymm11 vpandn %ymm9, %ymm8, %ymm12 vpxor %ymm2, %ymm12, %ymm12 vmovdqu %ymm12, 480(%rax) vpandn %ymm10, %ymm9, %ymm12 vpxor %ymm8, %ymm12, %ymm12 vmovdqu %ymm12, 512(%rax) vpandn %ymm11, %ymm10, %ymm12 vpxor %ymm9, %ymm12, %ymm9 vmovdqu %ymm9, 544(%rax) vpandn %ymm2, %ymm11, %ymm9 vpxor %ymm10, %ymm9, %ymm9 vmovdqu %ymm9, 576(%rax) vpandn %ymm8, %ymm2, %ymm2 vpxor %ymm11, %ymm2, %ymm2 vmovdqu %ymm2, 608(%rax) vmovdqu 64(%rcx), %ymm2 vpxor %ymm5, %ymm2, %ymm2 vpsllq $62, %ymm2, %ymm5 vpsrlq $2, %ymm2, %ymm2 vpor %ymm5, %ymm2, %ymm2 vmovdqu 256(%rcx), %ymm5 vpxor %ymm6, %ymm5, %ymm5 vpsllq $55, %ymm5, %ymm6 vpsrlq $9, %ymm5, %ymm5 vpor %ymm6, %ymm5, %ymm5 vmovdqu 448(%rcx), %ymm6 vpxor %ymm7, %ymm6, %ymm6 vpsllq $39, %ymm6, %ymm7 vpsrlq $25, %ymm6, %ymm6 vpor %ymm7, %ymm6, %ymm6 vmovdqu 480(%rcx), %ymm7 vpxor %ymm3, %ymm7, %ymm3 vpsllq $41, %ymm3, %ymm7 vpsrlq $23, %ymm3, %ymm3 vpor %ymm7, %ymm3, %ymm3 vmovdqu 672(%rcx), %ymm7 vpxor %ymm4, %ymm7, %ymm4 vpsllq $2, %ymm4, %ymm7 vpsrlq $62, %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpandn %ymm6, %ymm5, %ymm7 vpxor %ymm2, %ymm7, %ymm7 vmovdqu %ymm7, 640(%rax) vpandn %ymm3, %ymm6, %ymm7 vpxor %ymm5, %ymm7, %ymm7 vmovdqu %ymm7, 672(%rax) vpandn %ymm4, %ymm3, %ymm7 vpxor %ymm6, %ymm7, %ymm6 vmovdqu %ymm6, 704(%rax) vpandn %ymm2, %ymm4, %ymm6 vpxor %ymm3, %ymm6, %ymm3 vmovdqu %ymm3, 736(%rax) vpandn %ymm5, %ymm2, %ymm2 vpxor %ymm4, %ymm2, %ymm2 vmovdqu %ymm2, 768(%rax) addq $64, %rsi cmpq $768, %rsi jb L_keccakf1600_4x_avx2$2 jmp *800(%rsp) L_sha3_512_32$1: vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, (%rsp) vmovdqu %ymm0, 32(%rsp) vmovdqu %ymm0, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm0, 128(%rsp) vmovdqu %ymm0, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vpbroadcastq (%rcx), %ymm6 movq 8(%rcx), %rdx movq glob_data + 6208(%rip), %rsi movq %rdx, (%rsp,%rsi,8) movq 16(%rcx), %rdx movq glob_data + 6216(%rip), %rsi movq %rdx, (%rsp,%rsi,8) movq 24(%rcx), %rcx movq glob_data + 6224(%rip), %rdx movq %rcx, (%rsp,%rdx,8) movq glob_data + 6232(%rip), %rcx shlq $3, %rcx movb $6, (%rsp,%rcx) movq glob_data + 6264(%rip), %rcx shlq $3, %rcx movq $71, %rdx andq $7, %rdx addq %rdx, %rcx xorb $-128, (%rsp,%rcx) vmovdqu 32(%rsp), %ymm0 vmovdqu 64(%rsp), %ymm1 vmovdqu 96(%rsp), %ymm2 vmovdqu 128(%rsp), %ymm3 vmovdqu 160(%rsp), %ymm4 vmovdqu 192(%rsp), %ymm5 leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 L_sha3_512_32$2: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm4, %ymm7 vpxor %ymm5, %ymm3, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 96(%rsi), %ymm3, %ymm7 vpsrlvq 96(%rdi), %ymm3, %ymm3 vpor %ymm7, %ymm3, %ymm10 vpxor %ymm9, %ymm4, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm4 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm4, %ymm3, %ymm4 vpxor %ymm9, %ymm5, %ymm5 vpermq $-115, %ymm1, %ymm3 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm5, %ymm1 vpsrlvq 160(%rdi), %ymm5, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm4, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm3, %ymm5 vpblendd $12, %ymm3, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm4, %ymm4 vpblendd $48, %ymm10, %ymm5, %ymm5 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm9, %ymm5, %ymm5 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm4, %ymm1, %ymm1 vpandn %ymm11, %ymm5, %ymm5 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm3, %ymm12 vpxor %ymm3, %ymm1, %ymm4 vpblendd $48, %ymm3, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm5, %ymm5 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm6, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm13, %ymm13 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm4, %ymm2 vpermq $-115, %ymm5, %ymm4 vpermq $114, %ymm12, %ymm5 vpblendd $12, %ymm3, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm3, %ymm9, %ymm3 vpandn %ymm3, %ymm0, %ymm3 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm3, %ymm3 vpxor (%rcx,%rdx), %ymm6, %ymm6 addq $32, %rdx decq %r8 jne L_sha3_512_32$2 vmovdqu %ymm6, (%rsp) vmovdqu %ymm0, 32(%rsp) vmovdqu %ymm1, 64(%rsp) vmovdqu %ymm2, 96(%rsp) vmovdqu %ymm3, 128(%rsp) vmovdqu %ymm4, 160(%rsp) vmovdqu %ymm5, 192(%rsp) movq glob_data + 6200(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) jmp *224(%rsp) L_sha3_512_64$1: vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, (%rsp) vmovdqu %ymm0, 32(%rsp) vmovdqu %ymm0, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm0, 128(%rsp) vmovdqu %ymm0, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vpbroadcastq (%rcx), %ymm6 movq 8(%rcx), %rdx movq glob_data + 6208(%rip), %rsi movq %rdx, (%rsp,%rsi,8) movq 16(%rcx), %rdx movq glob_data + 6216(%rip), %rsi movq %rdx, (%rsp,%rsi,8) movq 24(%rcx), %rdx movq glob_data + 6224(%rip), %rsi movq %rdx, (%rsp,%rsi,8) movq 32(%rcx), %rdx movq glob_data + 6232(%rip), %rsi movq %rdx, (%rsp,%rsi,8) movq 40(%rcx), %rdx movq glob_data + 6240(%rip), %rsi movq %rdx, (%rsp,%rsi,8) movq 48(%rcx), %rdx movq glob_data + 6248(%rip), %rsi movq %rdx, (%rsp,%rsi,8) movq 56(%rcx), %rcx movq glob_data + 6256(%rip), %rdx movq %rcx, (%rsp,%rdx,8) movq glob_data + 6264(%rip), %rcx shlq $3, %rcx movb $6, (%rsp,%rcx) movq glob_data + 6264(%rip), %rcx shlq $3, %rcx movq $71, %rdx andq $7, %rdx addq %rdx, %rcx xorb $-128, (%rsp,%rcx) vmovdqu 32(%rsp), %ymm0 vmovdqu 64(%rsp), %ymm1 vmovdqu 96(%rsp), %ymm2 vmovdqu 128(%rsp), %ymm3 vmovdqu 160(%rsp), %ymm4 vmovdqu 192(%rsp), %ymm5 leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 L_sha3_512_64$2: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm4, %ymm7 vpxor %ymm5, %ymm3, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 96(%rsi), %ymm3, %ymm7 vpsrlvq 96(%rdi), %ymm3, %ymm3 vpor %ymm7, %ymm3, %ymm10 vpxor %ymm9, %ymm4, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm4 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm4, %ymm3, %ymm4 vpxor %ymm9, %ymm5, %ymm5 vpermq $-115, %ymm1, %ymm3 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm5, %ymm1 vpsrlvq 160(%rdi), %ymm5, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm4, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm3, %ymm5 vpblendd $12, %ymm3, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm4, %ymm4 vpblendd $48, %ymm10, %ymm5, %ymm5 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm9, %ymm5, %ymm5 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm4, %ymm1, %ymm1 vpandn %ymm11, %ymm5, %ymm5 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm3, %ymm12 vpxor %ymm3, %ymm1, %ymm4 vpblendd $48, %ymm3, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm5, %ymm5 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm6, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm13, %ymm13 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm4, %ymm2 vpermq $-115, %ymm5, %ymm4 vpermq $114, %ymm12, %ymm5 vpblendd $12, %ymm3, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm3, %ymm9, %ymm3 vpandn %ymm3, %ymm0, %ymm3 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm3, %ymm3 vpxor (%rcx,%rdx), %ymm6, %ymm6 addq $32, %rdx decq %r8 jne L_sha3_512_64$2 vmovdqu %ymm6, (%rsp) vmovdqu %ymm0, 32(%rsp) vmovdqu %ymm1, 64(%rsp) vmovdqu %ymm2, 96(%rsp) vmovdqu %ymm3, 128(%rsp) vmovdqu %ymm4, 160(%rsp) vmovdqu %ymm5, 192(%rsp) movq glob_data + 6200(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) jmp *224(%rsp) L_shake256_128_33$1: vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, (%rsp) vmovdqu %ymm0, 32(%rsp) vmovdqu %ymm0, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm0, 128(%rsp) vmovdqu %ymm0, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vpbroadcastq (%rcx), %ymm6 movq 8(%rcx), %rdx movq glob_data + 6208(%rip), %rsi movq %rdx, (%rsp,%rsi,8) movq 16(%rcx), %rdx movq glob_data + 6216(%rip), %rsi movq %rdx, (%rsp,%rsi,8) movq 24(%rcx), %rdx movq glob_data + 6224(%rip), %rsi movq %rdx, (%rsp,%rsi,8) movb 32(%rcx), %cl movq glob_data + 6232(%rip), %rdx shlq $3, %rdx movb %cl, (%rsp,%rdx) incq %rdx movb $31, (%rsp,%rdx) movq glob_data + 6328(%rip), %rcx shlq $3, %rcx movq $135, %rdx andq $7, %rdx addq %rdx, %rcx xorb $-128, (%rsp,%rcx) vmovdqu 32(%rsp), %ymm0 vmovdqu 64(%rsp), %ymm1 vmovdqu 96(%rsp), %ymm2 vmovdqu 128(%rsp), %ymm3 vmovdqu 160(%rsp), %ymm4 vmovdqu 192(%rsp), %ymm5 leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 L_shake256_128_33$2: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm4, %ymm7 vpxor %ymm5, %ymm3, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 96(%rsi), %ymm3, %ymm7 vpsrlvq 96(%rdi), %ymm3, %ymm3 vpor %ymm7, %ymm3, %ymm10 vpxor %ymm9, %ymm4, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm4 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm4, %ymm3, %ymm4 vpxor %ymm9, %ymm5, %ymm5 vpermq $-115, %ymm1, %ymm3 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm5, %ymm1 vpsrlvq 160(%rdi), %ymm5, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm4, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm3, %ymm5 vpblendd $12, %ymm3, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm4, %ymm4 vpblendd $48, %ymm10, %ymm5, %ymm5 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm9, %ymm5, %ymm5 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm4, %ymm1, %ymm1 vpandn %ymm11, %ymm5, %ymm5 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm3, %ymm12 vpxor %ymm3, %ymm1, %ymm4 vpblendd $48, %ymm3, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm5, %ymm5 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm6, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm13, %ymm13 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm4, %ymm2 vpermq $-115, %ymm5, %ymm4 vpermq $114, %ymm12, %ymm5 vpblendd $12, %ymm3, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm3, %ymm9, %ymm3 vpandn %ymm3, %ymm0, %ymm3 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm3, %ymm3 vpxor (%rcx,%rdx), %ymm6, %ymm6 addq $32, %rdx decq %r8 jne L_shake256_128_33$2 vmovdqu %ymm6, (%rsp) vmovdqu %ymm0, 32(%rsp) vmovdqu %ymm1, 64(%rsp) vmovdqu %ymm2, 96(%rsp) vmovdqu %ymm3, 128(%rsp) vmovdqu %ymm4, 160(%rsp) vmovdqu %ymm5, 192(%rsp) movq glob_data + 6200(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) movq glob_data + 6232(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 32(%rax) movq glob_data + 6240(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 40(%rax) movq glob_data + 6248(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 48(%rax) movq glob_data + 6256(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 56(%rax) movq glob_data + 6264(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 64(%rax) movq glob_data + 6272(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 72(%rax) movq glob_data + 6280(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 80(%rax) movq glob_data + 6288(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 88(%rax) movq glob_data + 6296(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 96(%rax) movq glob_data + 6304(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 104(%rax) movq glob_data + 6312(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 112(%rax) movq glob_data + 6320(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 120(%rax) jmp *224(%rsp) L_shake256_64$1: vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, (%rsp) vmovdqu %ymm0, 32(%rsp) vmovdqu %ymm0, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm0, 128(%rsp) vmovdqu %ymm0, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vpbroadcastq (%rax), %ymm4 movq glob_data + 6208(%rip), %rsi movq 8(%rax), %rdi movq %rdi, (%rsp,%rsi,8) movq glob_data + 6216(%rip), %rsi movq 16(%rax), %rdi movq %rdi, (%rsp,%rsi,8) movq glob_data + 6224(%rip), %rsi movq 24(%rax), %rdi movq %rdi, (%rsp,%rsi,8) movq glob_data + 6232(%rip), %rsi movq 32(%rax), %rdi movq %rdi, (%rsp,%rsi,8) movq glob_data + 6240(%rip), %rsi movq 40(%rax), %rdi movq %rdi, (%rsp,%rsi,8) movq glob_data + 6248(%rip), %rsi movq 48(%rax), %rdi movq %rdi, (%rsp,%rsi,8) movq glob_data + 6256(%rip), %rsi movq 56(%rax), %rax movq %rax, (%rsp,%rsi,8) movq glob_data + 6264(%rip), %rax shlq $3, %rax movb $31, (%rsp,%rax) movq glob_data + 6328(%rip), %rax shlq $3, %rax movq $135, %rsi andq $7, %rsi addq %rsi, %rax xorb $-128, (%rsp,%rax) vmovdqu 32(%rsp), %ymm5 vmovdqu 64(%rsp), %ymm0 vmovdqu 96(%rsp), %ymm1 vmovdqu 128(%rsp), %ymm6 vmovdqu 160(%rsp), %ymm2 vmovdqu 192(%rsp), %ymm3 movq $136, %rsi leaq glob_data + 6200(%rip), %rax jmp L_shake256_64$7 L_shake256_64$8: leaq glob_data + 3328(%rip), %rdi movq $0, %r8 leaq glob_data + 3136(%rip), %r9 leaq glob_data + 2944(%rip), %r10 movq $24, %r11 L_shake256_64$11: vpshufd $78, %ymm0, %ymm8 vpxor %ymm1, %ymm2, %ymm7 vpxor %ymm3, %ymm6, %ymm9 vpxor %ymm5, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm0, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm4, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm0, %ymm0 vpxor %ymm11, %ymm4, %ymm4 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%r9), %ymm0, %ymm7 vpsrlvq (%r10), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 64(%r9), %ymm1, %ymm7 vpsrlvq 64(%r10), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm6, %ymm6 vpsllvq 96(%r9), %ymm6, %ymm7 vpsrlvq 96(%r10), %ymm6, %ymm6 vpor %ymm7, %ymm6, %ymm10 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 128(%r9), %ymm2, %ymm6 vpsrlvq 128(%r10), %ymm2, %ymm2 vpor %ymm6, %ymm2, %ymm2 vpxor %ymm9, %ymm3, %ymm3 vpermq $-115, %ymm0, %ymm6 vpermq $-115, %ymm1, %ymm7 vpsllvq 160(%r9), %ymm3, %ymm0 vpsrlvq 160(%r10), %ymm3, %ymm1 vpor %ymm0, %ymm1, %ymm8 vpxor %ymm9, %ymm5, %ymm0 vpermq $27, %ymm10, %ymm5 vpermq $114, %ymm2, %ymm9 vpsllvq 32(%r9), %ymm0, %ymm1 vpsrlvq 32(%r10), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm1 vpblendd $12, %ymm9, %ymm10, %ymm0 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm6, %ymm3 vpblendd $12, %ymm6, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm0, %ymm0 vpblendd $48, %ymm5, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm3, %ymm3 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm5, %ymm0, %ymm0 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm3, %ymm3 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm0, %ymm0 vpandn %ymm11, %ymm3, %ymm3 vpblendd $12, %ymm10, %ymm5, %ymm11 vpblendd $12, %ymm5, %ymm6, %ymm12 vpxor %ymm6, %ymm0, %ymm2 vpblendd $48, %ymm6, %ymm11, %ymm0 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm5, %ymm3, %ymm3 vpblendd $-64, %ymm7, %ymm0, %ymm0 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm0, %ymm0 vpxor %ymm9, %ymm0, %ymm12 vpermq $30, %ymm8, %ymm0 vpblendd $48, %ymm4, %ymm0, %ymm0 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm4, %ymm11, %ymm11 vpandn %ymm0, %ymm11, %ymm11 vpblendd $12, %ymm5, %ymm7, %ymm0 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm0, %ymm0 vpblendd $48, %ymm6, %ymm13, %ymm13 vpblendd $-64, %ymm6, %ymm0, %ymm0 vpblendd $-64, %ymm5, %ymm13, %ymm13 vpandn %ymm13, %ymm0, %ymm0 vpxor %ymm10, %ymm0, %ymm0 vpermq $0, %ymm1, %ymm13 vpermq $27, %ymm2, %ymm1 vpermq $-115, %ymm3, %ymm2 vpermq $114, %ymm12, %ymm3 vpblendd $12, %ymm6, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm5, %ymm9 vpblendd $48, %ymm5, %ymm12, %ymm5 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm5, %ymm5 vpblendd $-64, %ymm6, %ymm9, %ymm6 vpandn %ymm6, %ymm5, %ymm6 vpxor %ymm13, %ymm4, %ymm4 vpxor %ymm8, %ymm11, %ymm5 vpxor %ymm7, %ymm6, %ymm6 vpxor (%rdi,%r8), %ymm4, %ymm4 addq $32, %r8 decq %r11 jne L_shake256_64$11 vmovdqu %ymm4, (%rsp) vmovdqu %ymm5, 32(%rsp) vmovdqu %ymm0, 64(%rsp) vmovdqu %ymm1, 96(%rsp) vmovdqu %ymm6, 128(%rsp) vmovdqu %ymm2, 160(%rsp) vmovdqu %ymm3, 192(%rsp) movq %rsi, %rdi shrq $3, %rdi movq $0, %r8 jmp L_shake256_64$9 L_shake256_64$10: movq (%rax,%r8,8), %r9 movq (%rsp,%r9,8), %r9 movq %r9, (%rdx,%r8,8) incq %r8 L_shake256_64$9: cmpq %rdi, %r8 jb L_shake256_64$10 addq %rsi, %rdx subq %rsi, %rcx L_shake256_64$7: cmpq %rsi, %rcx jnbe L_shake256_64$8 leaq glob_data + 3328(%rip), %rsi movq $0, %rdi leaq glob_data + 3136(%rip), %r8 leaq glob_data + 2944(%rip), %r9 movq $24, %r10 L_shake256_64$6: vpshufd $78, %ymm0, %ymm8 vpxor %ymm1, %ymm2, %ymm7 vpxor %ymm3, %ymm6, %ymm9 vpxor %ymm5, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm0, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm4, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm0, %ymm0 vpxor %ymm11, %ymm4, %ymm4 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%r8), %ymm0, %ymm7 vpsrlvq (%r9), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 64(%r8), %ymm1, %ymm7 vpsrlvq 64(%r9), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm6, %ymm6 vpsllvq 96(%r8), %ymm6, %ymm7 vpsrlvq 96(%r9), %ymm6, %ymm6 vpor %ymm7, %ymm6, %ymm10 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 128(%r8), %ymm2, %ymm6 vpsrlvq 128(%r9), %ymm2, %ymm2 vpor %ymm6, %ymm2, %ymm2 vpxor %ymm9, %ymm3, %ymm3 vpermq $-115, %ymm0, %ymm6 vpermq $-115, %ymm1, %ymm7 vpsllvq 160(%r8), %ymm3, %ymm0 vpsrlvq 160(%r9), %ymm3, %ymm1 vpor %ymm0, %ymm1, %ymm8 vpxor %ymm9, %ymm5, %ymm0 vpermq $27, %ymm10, %ymm5 vpermq $114, %ymm2, %ymm9 vpsllvq 32(%r8), %ymm0, %ymm1 vpsrlvq 32(%r9), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm1 vpblendd $12, %ymm9, %ymm10, %ymm0 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm6, %ymm3 vpblendd $12, %ymm6, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm0, %ymm0 vpblendd $48, %ymm5, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm3, %ymm3 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm5, %ymm0, %ymm0 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm3, %ymm3 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm0, %ymm0 vpandn %ymm11, %ymm3, %ymm3 vpblendd $12, %ymm10, %ymm5, %ymm11 vpblendd $12, %ymm5, %ymm6, %ymm12 vpxor %ymm6, %ymm0, %ymm2 vpblendd $48, %ymm6, %ymm11, %ymm0 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm5, %ymm3, %ymm3 vpblendd $-64, %ymm7, %ymm0, %ymm0 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm0, %ymm0 vpxor %ymm9, %ymm0, %ymm12 vpermq $30, %ymm8, %ymm0 vpblendd $48, %ymm4, %ymm0, %ymm0 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm4, %ymm11, %ymm11 vpandn %ymm0, %ymm11, %ymm11 vpblendd $12, %ymm5, %ymm7, %ymm0 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm0, %ymm0 vpblendd $48, %ymm6, %ymm13, %ymm13 vpblendd $-64, %ymm6, %ymm0, %ymm0 vpblendd $-64, %ymm5, %ymm13, %ymm13 vpandn %ymm13, %ymm0, %ymm0 vpxor %ymm10, %ymm0, %ymm0 vpermq $0, %ymm1, %ymm13 vpermq $27, %ymm2, %ymm1 vpermq $-115, %ymm3, %ymm2 vpermq $114, %ymm12, %ymm3 vpblendd $12, %ymm6, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm5, %ymm9 vpblendd $48, %ymm5, %ymm12, %ymm5 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm5, %ymm5 vpblendd $-64, %ymm6, %ymm9, %ymm6 vpandn %ymm6, %ymm5, %ymm6 vpxor %ymm13, %ymm4, %ymm4 vpxor %ymm8, %ymm11, %ymm5 vpxor %ymm7, %ymm6, %ymm6 vpxor (%rsi,%rdi), %ymm4, %ymm4 addq $32, %rdi decq %r10 jne L_shake256_64$6 vmovdqu %ymm4, (%rsp) vmovdqu %ymm5, 32(%rsp) vmovdqu %ymm0, 64(%rsp) vmovdqu %ymm1, 96(%rsp) vmovdqu %ymm6, 128(%rsp) vmovdqu %ymm2, 160(%rsp) vmovdqu %ymm3, 192(%rsp) movq %rcx, %rsi shrq $3, %rsi movq $0, %rdi jmp L_shake256_64$4 L_shake256_64$5: movq (%rax,%rdi,8), %r8 movq (%rsp,%r8,8), %r8 movq %r8, (%rdx,%rdi,8) incq %rdi L_shake256_64$4: cmpq %rsi, %rdi jb L_shake256_64$5 movq (%rax,%rdi,8), %rax shlq $3, %rdi shlq $3, %rax jmp L_shake256_64$2 L_shake256_64$3: movb (%rsp,%rax), %sil movb %sil, (%rdx,%rdi) incq %rdi incq %rax L_shake256_64$2: cmpq %rcx, %rdi jb L_shake256_64$3 jmp *224(%rsp) L_sha3_256_32$1: vpxor %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, (%rsp) vmovdqu %ymm0, 32(%rsp) vmovdqu %ymm0, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm0, 128(%rsp) vmovdqu %ymm0, 160(%rsp) vmovdqu %ymm0, 192(%rsp) vpbroadcastq (%rcx), %ymm6 movq 8(%rcx), %rdx movq glob_data + 6208(%rip), %rsi movq %rdx, (%rsp,%rsi,8) movq 16(%rcx), %rdx movq glob_data + 6216(%rip), %rsi movq %rdx, (%rsp,%rsi,8) movq 24(%rcx), %rcx movq glob_data + 6224(%rip), %rdx movq %rcx, (%rsp,%rdx,8) movq glob_data + 6232(%rip), %rcx shlq $3, %rcx movb $6, (%rsp,%rcx) movq glob_data + 6328(%rip), %rcx shlq $3, %rcx movq $135, %rdx andq $7, %rdx addq %rdx, %rcx xorb $-128, (%rsp,%rcx) vmovdqu 32(%rsp), %ymm0 vmovdqu 64(%rsp), %ymm1 vmovdqu 96(%rsp), %ymm2 vmovdqu 128(%rsp), %ymm3 vmovdqu 160(%rsp), %ymm4 vmovdqu 192(%rsp), %ymm5 leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 L_sha3_256_32$2: vpshufd $78, %ymm1, %ymm8 vpxor %ymm2, %ymm4, %ymm7 vpxor %ymm5, %ymm3, %ymm9 vpxor %ymm0, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm1, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm1, %ymm1 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm1, %ymm7 vpsrlvq (%rdi), %ymm1, %ymm1 vpor %ymm7, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpsllvq 64(%rsi), %ymm2, %ymm7 vpsrlvq 64(%rdi), %ymm2, %ymm2 vpor %ymm7, %ymm2, %ymm2 vpxor %ymm9, %ymm3, %ymm3 vpsllvq 96(%rsi), %ymm3, %ymm7 vpsrlvq 96(%rdi), %ymm3, %ymm3 vpor %ymm7, %ymm3, %ymm10 vpxor %ymm9, %ymm4, %ymm3 vpsllvq 128(%rsi), %ymm3, %ymm4 vpsrlvq 128(%rdi), %ymm3, %ymm3 vpor %ymm4, %ymm3, %ymm4 vpxor %ymm9, %ymm5, %ymm5 vpermq $-115, %ymm1, %ymm3 vpermq $-115, %ymm2, %ymm7 vpsllvq 160(%rsi), %ymm5, %ymm1 vpsrlvq 160(%rdi), %ymm5, %ymm2 vpor %ymm1, %ymm2, %ymm8 vpxor %ymm9, %ymm0, %ymm1 vpermq $27, %ymm10, %ymm0 vpermq $114, %ymm4, %ymm9 vpsllvq 32(%rsi), %ymm1, %ymm2 vpsrlvq 32(%rdi), %ymm1, %ymm1 vpor %ymm2, %ymm1, %ymm10 vpsrldq $8, %ymm8, %ymm1 vpandn %ymm1, %ymm8, %ymm2 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm3, %ymm5 vpblendd $12, %ymm3, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm0, %ymm4, %ymm4 vpblendd $48, %ymm10, %ymm5, %ymm5 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm0, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm9, %ymm5, %ymm5 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm4, %ymm1, %ymm1 vpandn %ymm11, %ymm5, %ymm5 vpblendd $12, %ymm10, %ymm0, %ymm11 vpblendd $12, %ymm0, %ymm3, %ymm12 vpxor %ymm3, %ymm1, %ymm4 vpblendd $48, %ymm3, %ymm11, %ymm1 vpblendd $48, %ymm7, %ymm12, %ymm11 vpxor %ymm0, %ymm5, %ymm5 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm1, %ymm1 vpxor %ymm9, %ymm1, %ymm12 vpermq $30, %ymm8, %ymm1 vpblendd $48, %ymm6, %ymm1, %ymm1 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm1, %ymm11, %ymm11 vpblendd $12, %ymm0, %ymm7, %ymm1 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm13, %ymm13 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm0, %ymm13, %ymm13 vpandn %ymm13, %ymm1, %ymm1 vpxor %ymm10, %ymm1, %ymm1 vpermq $0, %ymm2, %ymm13 vpermq $27, %ymm4, %ymm2 vpermq $-115, %ymm5, %ymm4 vpermq $114, %ymm12, %ymm5 vpblendd $12, %ymm3, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm0, %ymm9 vpblendd $48, %ymm0, %ymm12, %ymm0 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm0, %ymm0 vpblendd $-64, %ymm3, %ymm9, %ymm3 vpandn %ymm3, %ymm0, %ymm3 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm0 vpxor %ymm7, %ymm3, %ymm3 vpxor (%rcx,%rdx), %ymm6, %ymm6 addq $32, %rdx decq %r8 jne L_sha3_256_32$2 vmovdqu %ymm6, (%rsp) vmovdqu %ymm0, 32(%rsp) vmovdqu %ymm1, 64(%rsp) vmovdqu %ymm2, 96(%rsp) vmovdqu %ymm3, 128(%rsp) vmovdqu %ymm4, 160(%rsp) vmovdqu %ymm5, 192(%rsp) movq glob_data + 6200(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, (%rax) movq glob_data + 6208(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 8(%rax) movq glob_data + 6216(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 16(%rax) movq glob_data + 6224(%rip), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) jmp *224(%rsp) L_sha3_256$1: vpxor %ymm6, %ymm6, %ymm6 vpxor %ymm3, %ymm3, %ymm3 vpxor %ymm4, %ymm4, %ymm4 vpxor %ymm0, %ymm0, %ymm0 vpxor %ymm5, %ymm5, %ymm5 vpxor %ymm1, %ymm1, %ymm1 vpxor %ymm2, %ymm2, %ymm2 movb $6, %cl movq $136, %rdx leaq glob_data + 6200(%rip), %rsi vpxor %ymm7, %ymm7, %ymm7 vmovdqu %ymm7, (%rsp) vmovdqu %ymm7, 32(%rsp) vmovdqu %ymm7, 64(%rsp) vmovdqu %ymm7, 96(%rsp) vmovdqu %ymm7, 128(%rsp) vmovdqu %ymm7, 160(%rsp) vmovdqu %ymm7, 192(%rsp) jmp L_sha3_256$7 L_sha3_256$8: movq %rdx, %r9 shrq $3, %r9 movq $0, %r10 jmp L_sha3_256$10 L_sha3_256$11: movq (%r8,%r10,8), %r11 movq (%rsi,%r10,8), %rbx movq %r11, (%rsp,%rbx,8) incq %r10 L_sha3_256$10: cmpq %r9, %r10 jb L_sha3_256$11 movq (%rsp), %r9 movq %r9, 8(%rsp) movq %r9, 16(%rsp) movq %r9, 24(%rsp) vpxor (%rsp), %ymm6, %ymm6 vpxor 32(%rsp), %ymm3, %ymm3 vpxor 64(%rsp), %ymm4, %ymm4 vpxor 96(%rsp), %ymm0, %ymm0 vpxor 128(%rsp), %ymm5, %ymm5 vpxor 160(%rsp), %ymm1, %ymm1 vpxor 192(%rsp), %ymm2, %ymm2 addq %rdx, %r8 subq %rdx, %rdi leaq glob_data + 3328(%rip), %r9 movq $0, %r10 leaq glob_data + 3136(%rip), %r11 leaq glob_data + 2944(%rip), %rbx movq $24, %rbp L_sha3_256$9: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%r11), %ymm4, %ymm7 vpsrlvq (%rbx), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%r11), %ymm0, %ymm7 vpsrlvq 64(%rbx), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%r11), %ymm5, %ymm7 vpsrlvq 96(%rbx), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%r11), %ymm1, %ymm5 vpsrlvq 128(%rbx), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%r11), %ymm2, %ymm0 vpsrlvq 160(%rbx), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%r11), %ymm0, %ymm1 vpsrlvq 32(%rbx), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%r9,%r10), %ymm6, %ymm6 addq $32, %r10 decq %rbp jne L_sha3_256$9 L_sha3_256$7: cmpq %rdx, %rdi jnb L_sha3_256$8 vpxor %ymm7, %ymm7, %ymm7 vmovdqu %ymm7, (%rsp) vmovdqu %ymm7, 32(%rsp) vmovdqu %ymm7, 64(%rsp) vmovdqu %ymm7, 96(%rsp) vmovdqu %ymm7, 128(%rsp) vmovdqu %ymm7, 160(%rsp) vmovdqu %ymm7, 192(%rsp) movq %rdi, %r9 shrq $3, %r9 movq $0, %r10 jmp L_sha3_256$5 L_sha3_256$6: movq (%r8,%r10,8), %r11 movq (%rsi,%r10,8), %rbx movq %r11, (%rsp,%rbx,8) incq %r10 L_sha3_256$5: cmpq %r9, %r10 jb L_sha3_256$6 movq (%rsi,%r10,8), %r9 shlq $3, %r9 shlq $3, %r10 jmp L_sha3_256$3 L_sha3_256$4: movb (%r8,%r10), %r11b movb %r11b, (%rsp,%r9) incq %r10 incq %r9 L_sha3_256$3: cmpq %rdi, %r10 jb L_sha3_256$4 movb %cl, (%rsp,%r9) movq %rdx, %rcx addq $-1, %rcx shrq $3, %rcx movq (%rsi,%rcx,8), %rcx shlq $3, %rcx addq $-1, %rdx andq $7, %rdx addq %rdx, %rcx xorb $-128, (%rsp,%rcx) movq (%rsp), %rcx movq %rcx, 8(%rsp) movq %rcx, 16(%rsp) movq %rcx, 24(%rsp) vpxor (%rsp), %ymm6, %ymm6 vpxor 32(%rsp), %ymm3, %ymm7 vpxor 64(%rsp), %ymm4, %ymm3 vpxor 96(%rsp), %ymm0, %ymm0 vpxor 128(%rsp), %ymm5, %ymm4 vpxor 160(%rsp), %ymm1, %ymm1 vpxor 192(%rsp), %ymm2, %ymm2 leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r8 L_sha3_256$2: vpshufd $78, %ymm3, %ymm5 vpxor %ymm0, %ymm1, %ymm8 vpxor %ymm2, %ymm4, %ymm9 vpxor %ymm7, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm10 vpermq $-109, %ymm10, %ymm8 vpxor %ymm3, %ymm5, %ymm5 vpermq $78, %ymm5, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm8, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm5, %ymm5 vpxor %ymm9, %ymm5, %ymm9 vpsrlq $63, %ymm9, %ymm5 vpaddq %ymm9, %ymm9, %ymm12 vpor %ymm5, %ymm12, %ymm12 vpxor %ymm11, %ymm3, %ymm3 vpxor %ymm11, %ymm6, %ymm5 vpblendd $-64, %ymm12, %ymm10, %ymm6 vpblendd $3, %ymm9, %ymm8, %ymm8 vpxor %ymm8, %ymm6, %ymm9 vpsllvq (%rsi), %ymm3, %ymm6 vpsrlvq (%rdi), %ymm3, %ymm3 vpor %ymm6, %ymm3, %ymm3 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%rsi), %ymm0, %ymm6 vpsrlvq 64(%rdi), %ymm0, %ymm0 vpor %ymm6, %ymm0, %ymm0 vpxor %ymm9, %ymm4, %ymm4 vpsllvq 96(%rsi), %ymm4, %ymm6 vpsrlvq 96(%rdi), %ymm4, %ymm4 vpor %ymm6, %ymm4, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%rsi), %ymm1, %ymm4 vpsrlvq 128(%rdi), %ymm1, %ymm1 vpor %ymm4, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm3, %ymm4 vpermq $-115, %ymm0, %ymm6 vpsllvq 160(%rsi), %ymm2, %ymm0 vpsrlvq 160(%rdi), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm7, %ymm0 vpermq $27, %ymm10, %ymm7 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%rsi), %ymm0, %ymm1 vpsrlvq 32(%rdi), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm6, %ymm2 vpblendd $12, %ymm6, %ymm4, %ymm3 vpblendd $12, %ymm4, %ymm10, %ymm11 vpblendd $48, %ymm6, %ymm1, %ymm1 vpblendd $48, %ymm7, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm3, %ymm3 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm7, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm3, %ymm3 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm3, %ymm2 vpblendd $12, %ymm10, %ymm7, %ymm3 vpblendd $12, %ymm7, %ymm4, %ymm11 vpxor %ymm4, %ymm1, %ymm1 vpblendd $48, %ymm4, %ymm3, %ymm3 vpblendd $48, %ymm6, %ymm11, %ymm11 vpxor %ymm7, %ymm2, %ymm2 vpblendd $-64, %ymm6, %ymm3, %ymm3 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm3, %ymm3 vpxor %ymm9, %ymm3, %ymm12 vpermq $30, %ymm8, %ymm3 vpblendd $48, %ymm5, %ymm3, %ymm3 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm5, %ymm11, %ymm11 vpandn %ymm3, %ymm11, %ymm11 vpblendd $12, %ymm7, %ymm6, %ymm3 vpblendd $12, %ymm6, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm3, %ymm3 vpblendd $48, %ymm4, %ymm13, %ymm13 vpblendd $-64, %ymm4, %ymm3, %ymm3 vpblendd $-64, %ymm7, %ymm13, %ymm13 vpandn %ymm13, %ymm3, %ymm3 vpxor %ymm10, %ymm3, %ymm3 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm4, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm7, %ymm9 vpblendd $48, %ymm7, %ymm12, %ymm7 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm7, %ymm7 vpblendd $-64, %ymm4, %ymm9, %ymm4 vpandn %ymm4, %ymm7, %ymm4 vpxor %ymm13, %ymm5, %ymm5 vpxor %ymm8, %ymm11, %ymm7 vpxor %ymm6, %ymm4, %ymm4 vpxor (%rcx,%rdx), %ymm5, %ymm6 addq $32, %rdx decq %r8 jne L_sha3_256$2 vmovdqu %ymm6, (%rsp) vmovdqu %ymm7, 32(%rsp) vmovdqu %ymm3, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm4, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) leaq glob_data + 6200(%rip), %rcx movq (%rcx), %rdx movq (%rsp,%rdx,8), %rdx movq %rdx, (%rax) movq 8(%rcx), %rdx movq (%rsp,%rdx,8), %rdx movq %rdx, 8(%rax) movq 16(%rcx), %rdx movq (%rsp,%rdx,8), %rdx movq %rdx, 16(%rax) movq 24(%rcx), %rcx movq (%rsp,%rcx,8), %rcx movq %rcx, 24(%rax) jmp *224(%rsp) L_keccak1600_avx2$1: vpxor %ymm6, %ymm6, %ymm6 vpxor %ymm3, %ymm3, %ymm3 vpxor %ymm4, %ymm4, %ymm4 vpxor %ymm0, %ymm0, %ymm0 vpxor %ymm5, %ymm5, %ymm5 vpxor %ymm1, %ymm1, %ymm1 vpxor %ymm2, %ymm2, %ymm2 leaq glob_data + 6200(%rip), %rax vpxor %ymm7, %ymm7, %ymm7 vmovdqu %ymm7, (%rsp) vmovdqu %ymm7, 32(%rsp) vmovdqu %ymm7, 64(%rsp) vmovdqu %ymm7, 96(%rsp) vmovdqu %ymm7, 128(%rsp) vmovdqu %ymm7, 160(%rsp) vmovdqu %ymm7, 192(%rsp) jmp L_keccak1600_avx2$16 L_keccak1600_avx2$17: movq %rcx, %r11 shrq $3, %r11 movq $0, %rbx jmp L_keccak1600_avx2$19 L_keccak1600_avx2$20: movq (%rsi,%rbx,8), %rbp movq (%rax,%rbx,8), %r12 movq %rbp, (%rsp,%r12,8) incq %rbx L_keccak1600_avx2$19: cmpq %r11, %rbx jb L_keccak1600_avx2$20 movq (%rsp), %r11 movq %r11, 8(%rsp) movq %r11, 16(%rsp) movq %r11, 24(%rsp) vpxor (%rsp), %ymm6, %ymm6 vpxor 32(%rsp), %ymm3, %ymm3 vpxor 64(%rsp), %ymm4, %ymm4 vpxor 96(%rsp), %ymm0, %ymm0 vpxor 128(%rsp), %ymm5, %ymm5 vpxor 160(%rsp), %ymm1, %ymm1 vpxor 192(%rsp), %ymm2, %ymm2 addq %rcx, %rsi subq %rcx, %rdx leaq glob_data + 3328(%rip), %r11 movq $0, %rbx leaq glob_data + 3136(%rip), %rbp leaq glob_data + 2944(%rip), %r12 movq $24, %r13 L_keccak1600_avx2$18: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rbp), %ymm4, %ymm7 vpsrlvq (%r12), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%rbp), %ymm0, %ymm7 vpsrlvq 64(%r12), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%rbp), %ymm5, %ymm7 vpsrlvq 96(%r12), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%rbp), %ymm1, %ymm5 vpsrlvq 128(%r12), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%rbp), %ymm2, %ymm0 vpsrlvq 160(%r12), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%rbp), %ymm0, %ymm1 vpsrlvq 32(%r12), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%r11,%rbx), %ymm6, %ymm6 addq $32, %rbx decq %r13 jne L_keccak1600_avx2$18 L_keccak1600_avx2$16: cmpq %rcx, %rdx jnb L_keccak1600_avx2$17 vpxor %ymm7, %ymm7, %ymm7 vmovdqu %ymm7, (%rsp) vmovdqu %ymm7, 32(%rsp) vmovdqu %ymm7, 64(%rsp) vmovdqu %ymm7, 96(%rsp) vmovdqu %ymm7, 128(%rsp) vmovdqu %ymm7, 160(%rsp) vmovdqu %ymm7, 192(%rsp) movq %rdx, %r11 shrq $3, %r11 movq $0, %rbx jmp L_keccak1600_avx2$14 L_keccak1600_avx2$15: movq (%rsi,%rbx,8), %rbp movq (%rax,%rbx,8), %r12 movq %rbp, (%rsp,%r12,8) incq %rbx L_keccak1600_avx2$14: cmpq %r11, %rbx jb L_keccak1600_avx2$15 movq (%rax,%rbx,8), %r11 shlq $3, %r11 shlq $3, %rbx jmp L_keccak1600_avx2$12 L_keccak1600_avx2$13: movb (%rsi,%rbx), %bpl movb %bpl, (%rsp,%r11) incq %rbx incq %r11 L_keccak1600_avx2$12: cmpq %rdx, %rbx jb L_keccak1600_avx2$13 movb %dil, (%rsp,%r11) movq %rcx, %rdx addq $-1, %rdx shrq $3, %rdx movq (%rax,%rdx,8), %rax shlq $3, %rax movq %rcx, %rdx addq $-1, %rdx andq $7, %rdx addq %rdx, %rax xorb $-128, (%rsp,%rax) movq (%rsp), %rax movq %rax, 8(%rsp) movq %rax, 16(%rsp) movq %rax, 24(%rsp) vpxor (%rsp), %ymm6, %ymm6 vpxor 32(%rsp), %ymm3, %ymm3 vpxor 64(%rsp), %ymm4, %ymm4 vpxor 96(%rsp), %ymm0, %ymm0 vpxor 128(%rsp), %ymm5, %ymm5 vpxor 160(%rsp), %ymm1, %ymm1 vpxor 192(%rsp), %ymm2, %ymm2 leaq glob_data + 6200(%rip), %rax jmp L_keccak1600_avx2$7 L_keccak1600_avx2$8: leaq glob_data + 3328(%rip), %rdx movq $0, %rsi leaq glob_data + 3136(%rip), %rdi leaq glob_data + 2944(%rip), %r11 movq $24, %rbx L_keccak1600_avx2$11: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rdi), %ymm4, %ymm7 vpsrlvq (%r11), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%rdi), %ymm0, %ymm7 vpsrlvq 64(%r11), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%rdi), %ymm5, %ymm7 vpsrlvq 96(%r11), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%rdi), %ymm1, %ymm5 vpsrlvq 128(%r11), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%rdi), %ymm2, %ymm0 vpsrlvq 160(%r11), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%rdi), %ymm0, %ymm1 vpsrlvq 32(%r11), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%rdx,%rsi), %ymm6, %ymm6 addq $32, %rsi decq %rbx jne L_keccak1600_avx2$11 vmovdqu %ymm6, (%rsp) vmovdqu %ymm3, 32(%rsp) vmovdqu %ymm4, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm5, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) movq %rcx, %rdx shrq $3, %rdx movq $0, %rsi jmp L_keccak1600_avx2$9 L_keccak1600_avx2$10: movq (%rax,%rsi,8), %rdi movq (%rsp,%rdi,8), %rdi movq %rdi, (%r9,%rsi,8) incq %rsi L_keccak1600_avx2$9: cmpq %rdx, %rsi jb L_keccak1600_avx2$10 addq %rcx, %r9 subq %rcx, %r8 L_keccak1600_avx2$7: cmpq %rcx, %r8 jnbe L_keccak1600_avx2$8 leaq glob_data + 3328(%rip), %rcx movq $0, %rdx leaq glob_data + 3136(%rip), %rsi leaq glob_data + 2944(%rip), %rdi movq $24, %r11 L_keccak1600_avx2$6: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm4, %ymm7 vpsrlvq (%rdi), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%rsi), %ymm0, %ymm7 vpsrlvq 64(%rdi), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%rsi), %ymm5, %ymm7 vpsrlvq 96(%rdi), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%rsi), %ymm1, %ymm5 vpsrlvq 128(%rdi), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%rsi), %ymm2, %ymm0 vpsrlvq 160(%rdi), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%rsi), %ymm0, %ymm1 vpsrlvq 32(%rdi), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%rcx,%rdx), %ymm6, %ymm6 addq $32, %rdx decq %r11 jne L_keccak1600_avx2$6 vmovdqu %ymm6, (%rsp) vmovdqu %ymm3, 32(%rsp) vmovdqu %ymm4, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm5, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) movq %r8, %rcx shrq $3, %rcx movq $0, %rdx jmp L_keccak1600_avx2$4 L_keccak1600_avx2$5: movq (%rax,%rdx,8), %rsi movq (%rsp,%rsi,8), %rsi movq %rsi, (%r9,%rdx,8) incq %rdx L_keccak1600_avx2$4: cmpq %rcx, %rdx jb L_keccak1600_avx2$5 movq (%rax,%rdx,8), %rax shlq $3, %rdx shlq $3, %rax jmp L_keccak1600_avx2$2 L_keccak1600_avx2$3: movb (%rsp,%rax), %cl movb %cl, (%r9,%rdx) incq %rdx incq %rax L_keccak1600_avx2$2: cmpq %r8, %rdx jb L_keccak1600_avx2$3 jmp *%r10 .data .p2align 5 _glob_data: glob_data: .byte 0 .byte 1 .byte 1 .byte 2 .byte 3 .byte 4 .byte 4 .byte 5 .byte 6 .byte 7 .byte 7 .byte 8 .byte 9 .byte 10 .byte 10 .byte 11 .byte 4 .byte 5 .byte 5 .byte 6 .byte 7 .byte 8 .byte 8 .byte 9 .byte 10 .byte 11 .byte 11 .byte 12 .byte 13 .byte 14 .byte 14 .byte 15 .byte 0 .byte 1 .byte 2 .byte 3 .byte 4 .byte 8 .byte 9 .byte 10 .byte 11 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 9 .byte 10 .byte 11 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 1 .byte 2 .byte 3 .byte 4 .byte 8 .byte 0 .byte 1 .byte 1 .byte 2 .byte 2 .byte 3 .byte 3 .byte 4 .byte 5 .byte 6 .byte 6 .byte 7 .byte 7 .byte 8 .byte 8 .byte 9 .byte 2 .byte 3 .byte 3 .byte 4 .byte 4 .byte 5 .byte 5 .byte 6 .byte 7 .byte 8 .byte 8 .byte 9 .byte 9 .byte 10 .byte 10 .byte 11 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 1 .byte 1 .byte 1 .byte 2 .byte 2 .byte 2 .byte 2 .byte 3 .byte 3 .byte 3 .byte 3 .byte 4 .byte 4 .byte 4 .byte 4 .byte 5 .byte 5 .byte 5 .byte 5 .byte 6 .byte 6 .byte 6 .byte 6 .byte 7 .byte 7 .byte 7 .byte 7 .byte 0 .byte 0 .byte 0 .byte 0 .byte 4 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 5 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 6 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 0 .byte 0 .byte 7 .byte 0 .byte 0 .byte 0 .byte 73 .byte 5 .byte 73 .byte 5 .byte 73 .byte 5 .byte 73 .byte 5 .byte 73 .byte 5 .byte 73 .byte 5 .byte 73 .byte 5 .byte 73 .byte 5 .byte 73 .byte 5 .byte 73 .byte 5 .byte 73 .byte 5 .byte 73 .byte 5 .byte 73 .byte 5 .byte 73 .byte 5 .byte 73 .byte 5 .byte 73 .byte 5 .byte 64 .byte 3 .byte 64 .byte 3 .byte 64 .byte 3 .byte 64 .byte 3 .byte 64 .byte 3 .byte 64 .byte 3 .byte 64 .byte 3 .byte 64 .byte 3 .byte 64 .byte 3 .byte 64 .byte 3 .byte 64 .byte 3 .byte 64 .byte 3 .byte 64 .byte 3 .byte 64 .byte 3 .byte 64 .byte 3 .byte 64 .byte 3 .byte -128 .byte 6 .byte -128 .byte 6 .byte -128 .byte 6 .byte -128 .byte 6 .byte -128 .byte 6 .byte -128 .byte 6 .byte -128 .byte 6 .byte -128 .byte 6 .byte -128 .byte 6 .byte -128 .byte 6 .byte -128 .byte 6 .byte -128 .byte 6 .byte -128 .byte 6 .byte -128 .byte 6 .byte -128 .byte 6 .byte -128 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -127 .byte 6 .byte -1 .byte 15 .byte -1 .byte 15 .byte -1 .byte 15 .byte -1 .byte 15 .byte -1 .byte 15 .byte -1 .byte 15 .byte -1 .byte 15 .byte -1 .byte 15 .byte -1 .byte 15 .byte -1 .byte 15 .byte -1 .byte 15 .byte -1 .byte 15 .byte -1 .byte 15 .byte -1 .byte 15 .byte -1 .byte 15 .byte -1 .byte 15 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte -40 .byte -95 .byte 5 .byte -95 .byte 5 .byte -95 .byte 5 .byte -95 .byte 5 .byte -95 .byte 5 .byte -95 .byte 5 .byte -95 .byte 5 .byte -95 .byte 5 .byte -95 .byte 5 .byte -95 .byte 5 .byte -95 .byte 5 .byte -95 .byte 5 .byte -95 .byte 5 .byte -95 .byte 5 .byte -95 .byte 5 .byte -95 .byte 5 .byte -65 .byte 78 .byte -65 .byte 78 .byte -65 .byte 78 .byte -65 .byte 78 .byte -65 .byte 78 .byte -65 .byte 78 .byte -65 .byte 78 .byte -65 .byte 78 .byte -65 .byte 78 .byte -65 .byte 78 .byte -65 .byte 78 .byte -65 .byte 78 .byte -65 .byte 78 .byte -65 .byte 78 .byte -65 .byte 78 .byte -65 .byte 78 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte -13 .byte 1 .byte 13 .byte 1 .byte 13 .byte 1 .byte 13 .byte 1 .byte 13 .byte 1 .byte 13 .byte 1 .byte 13 .byte 1 .byte 13 .byte 1 .byte 13 .byte 1 .byte 13 .byte 1 .byte 13 .byte 1 .byte 13 .byte 1 .byte 13 .byte 1 .byte 13 .byte 1 .byte 13 .byte 1 .byte 13 .byte 1 .byte 13 .byte -91 .byte -91 .byte -76 .byte -31 .byte 34 .byte 79 .byte 52 .byte 93 .byte 35 .byte 68 .byte 86 .byte -91 .byte -25 .byte 78 .byte -6 .byte 83 .byte 123 .byte -57 .byte 37 .byte 43 .byte 55 .byte 58 .byte -120 .byte 24 .byte -127 .byte 126 .byte 5 .byte -60 .byte -97 .byte -9 .byte -72 .byte -80 .byte -91 .byte 6 .byte -76 .byte 5 .byte 34 .byte 9 .byte 52 .byte 1 .byte 35 .byte 11 .byte 86 .byte 3 .byte -25 .byte 9 .byte -6 .byte 5 .byte 123 .byte 6 .byte 37 .byte 12 .byte 55 .byte 5 .byte -120 .byte 0 .byte -127 .byte 11 .byte 5 .byte 5 .byte -97 .byte 10 .byte -72 .byte 8 .byte 15 .byte 68 .byte 67 .byte -94 .byte 29 .byte -112 .byte 108 .byte -124 .byte 102 .byte -43 .byte -26 .byte 87 .byte -2 .byte 30 .byte -95 .byte -41 .byte -93 .byte -67 .byte 106 .byte -95 .byte 63 .byte -43 .byte -65 .byte 81 .byte -71 .byte -96 .byte -41 .byte 28 .byte -90 .byte -100 .byte -48 .byte 121 .byte 15 .byte 7 .byte 67 .byte 9 .byte 29 .byte 9 .byte 108 .byte 0 .byte 102 .byte 3 .byte -26 .byte 5 .byte -2 .byte 4 .byte -95 .byte 4 .byte -93 .byte 4 .byte 106 .byte 3 .byte 63 .byte 8 .byte -65 .byte 4 .byte -71 .byte 5 .byte -41 .byte 7 .byte -90 .byte 10 .byte -48 .byte 9 .byte -5 .byte 69 .byte 92 .byte 94 .byte 41 .byte -17 .byte 65 .byte -66 .byte -43 .byte 49 .byte -28 .byte 113 .byte 64 .byte -55 .byte -114 .byte -53 .byte -73 .byte -72 .byte -9 .byte 117 .byte -115 .byte -36 .byte -106 .byte 110 .byte -61 .byte 34 .byte 15 .byte 62 .byte 90 .byte 110 .byte 85 .byte -78 .byte -5 .byte 4 .byte 92 .byte 10 .byte 41 .byte 4 .byte 65 .byte 11 .byte -43 .byte 2 .byte -28 .byte 5 .byte 64 .byte 9 .byte -114 .byte 1 .byte -73 .byte 3 .byte -9 .byte 0 .byte -115 .byte 5 .byte -106 .byte 12 .byte -61 .byte 9 .byte 15 .byte 1 .byte 90 .byte 0 .byte 85 .byte 3 .byte 35 .byte 63 .byte 35 .byte 63 .byte -51 .byte -105 .byte -51 .byte -105 .byte 102 .byte -35 .byte 102 .byte -35 .byte 6 .byte -72 .byte 6 .byte -72 .byte -95 .byte -35 .byte -95 .byte -35 .byte 37 .byte 41 .byte 37 .byte 41 .byte 8 .byte -95 .byte 8 .byte -95 .byte -87 .byte 109 .byte -87 .byte 109 .byte 35 .byte 6 .byte 35 .byte 6 .byte -51 .byte 0 .byte -51 .byte 0 .byte 102 .byte 11 .byte 102 .byte 11 .byte 6 .byte 6 .byte 6 .byte 6 .byte -95 .byte 10 .byte -95 .byte 10 .byte 37 .byte 10 .byte 37 .byte 10 .byte 8 .byte 9 .byte 8 .byte 9 .byte -87 .byte 2 .byte -87 .byte 2 .byte 69 .byte -122 .byte 69 .byte -122 .byte 69 .byte -122 .byte 69 .byte -122 .byte -62 .byte 43 .byte -62 .byte 43 .byte -62 .byte 43 .byte -62 .byte 43 .byte -78 .byte -6 .byte -78 .byte -6 .byte -78 .byte -6 .byte -78 .byte -6 .byte 63 .byte -42 .byte 63 .byte -42 .byte 63 .byte -42 .byte 63 .byte -42 .byte 69 .byte 7 .byte 69 .byte 7 .byte 69 .byte 7 .byte 69 .byte 7 .byte -62 .byte 5 .byte -62 .byte 5 .byte -62 .byte 5 .byte -62 .byte 5 .byte -78 .byte 4 .byte -78 .byte 4 .byte -78 .byte 4 .byte -78 .byte 4 .byte 63 .byte 9 .byte 63 .byte 9 .byte 63 .byte 9 .byte 63 .byte 9 .byte 55 .byte 65 .byte 55 .byte 65 .byte 55 .byte 65 .byte 55 .byte 65 .byte 55 .byte 65 .byte 55 .byte 65 .byte 55 .byte 65 .byte 55 .byte 65 .byte -30 .byte -111 .byte -30 .byte -111 .byte -30 .byte -111 .byte -30 .byte -111 .byte -30 .byte -111 .byte -30 .byte -111 .byte -30 .byte -111 .byte -30 .byte -111 .byte 55 .byte 12 .byte 55 .byte 12 .byte 55 .byte 12 .byte 55 .byte 12 .byte 55 .byte 12 .byte 55 .byte 12 .byte 55 .byte 12 .byte 55 .byte 12 .byte -30 .byte 11 .byte -30 .byte 11 .byte -30 .byte 11 .byte -30 .byte 11 .byte -30 .byte 11 .byte -30 .byte 11 .byte -30 .byte 11 .byte -30 .byte 11 .byte -19 .byte -4 .byte -19 .byte -4 .byte -19 .byte 5 .byte -19 .byte 5 .byte 75 .byte 49 .byte -72 .byte -77 .byte -92 .byte -73 .byte 125 .byte -79 .byte -94 .byte -50 .byte 54 .byte 73 .byte -109 .byte -119 .byte -9 .byte 126 .byte -116 .byte -22 .byte -52 .byte -91 .byte -21 .byte 17 .byte -74 .byte -52 .byte -104 .byte 84 .byte -102 .byte 55 .byte -74 .byte -53 .byte 83 .byte -44 .byte 75 .byte 0 .byte -72 .byte 11 .byte -92 .byte 11 .byte 125 .byte 10 .byte -94 .byte 8 .byte 54 .byte 7 .byte -109 .byte 0 .byte -9 .byte 9 .byte -116 .byte 6 .byte -52 .byte 1 .byte -21 .byte 0 .byte -74 .byte 10 .byte -104 .byte 12 .byte -102 .byte 9 .byte -74 .byte 9 .byte 83 .byte 11 .byte -100 .byte 20 .byte 95 .byte 56 .byte 104 .byte -69 .byte 54 .byte 72 .byte 90 .byte 112 .byte 9 .byte -114 .byte 122 .byte -42 .byte -10 .byte -126 .byte -37 .byte -25 .byte 35 .byte 58 .byte 80 .byte -4 .byte 91 .byte 108 .byte -13 .byte -81 .byte -29 .byte 125 .byte -42 .byte 44 .byte 79 .byte 1 .byte -100 .byte 0 .byte 95 .byte 11 .byte 104 .byte 3 .byte 54 .byte 6 .byte 90 .byte 2 .byte 9 .byte 3 .byte 122 .byte 8 .byte -10 .byte 0 .byte -37 .byte 6 .byte 35 .byte 1 .byte 80 .byte 12 .byte 91 .byte 11 .byte -13 .byte 6 .byte -29 .byte 4 .byte -42 .byte 10 .byte 79 .byte 4 .byte 68 .byte -109 .byte -125 .byte 101 .byte -118 .byte 2 .byte 82 .byte -36 .byte -102 .byte 48 .byte 64 .byte -63 .byte 8 .byte -104 .byte -3 .byte 49 .byte 8 .byte -98 .byte 26 .byte -81 .byte 46 .byte -79 .byte 13 .byte 92 .byte 10 .byte -121 .byte 40 .byte -6 .byte 117 .byte 25 .byte 58 .byte 22 .byte 68 .byte 7 .byte -125 .byte 12 .byte -118 .byte 4 .byte 82 .byte 6 .byte -102 .byte 2 .byte 64 .byte 1 .byte 8 .byte 0 .byte -3 .byte 10 .byte 8 .byte 6 .byte 26 .byte 1 .byte 46 .byte 7 .byte 13 .byte 5 .byte 10 .byte 9 .byte 40 .byte 2 .byte 117 .byte 10 .byte 58 .byte 8 .byte -126 .byte 102 .byte -126 .byte 102 .byte 66 .byte -84 .byte 66 .byte -84 .byte 79 .byte 4 .byte 79 .byte 4 .byte 61 .byte -22 .byte 61 .byte -22 .byte -126 .byte 113 .byte -126 .byte 113 .byte -7 .byte 102 .byte -7 .byte 102 .byte 45 .byte -68 .byte 45 .byte -68 .byte -60 .byte 22 .byte -60 .byte 22 .byte -126 .byte 0 .byte -126 .byte 0 .byte 66 .byte 6 .byte 66 .byte 6 .byte 79 .byte 7 .byte 79 .byte 7 .byte 61 .byte 3 .byte 61 .byte 3 .byte -126 .byte 11 .byte -126 .byte 11 .byte -7 .byte 11 .byte -7 .byte 11 .byte 45 .byte 5 .byte 45 .byte 5 .byte -60 .byte 10 .byte -60 .byte 10 .byte 75 .byte 61 .byte 75 .byte 61 .byte 75 .byte 61 .byte 75 .byte 61 .byte -40 .byte 14 .byte -40 .byte 14 .byte -40 .byte 14 .byte -40 .byte 14 .byte -109 .byte -109 .byte -109 .byte -109 .byte -109 .byte -109 .byte -109 .byte -109 .byte -85 .byte 81 .byte -85 .byte 81 .byte -85 .byte 81 .byte -85 .byte 81 .byte 75 .byte 12 .byte 75 .byte 12 .byte 75 .byte 12 .byte 75 .byte 12 .byte -40 .byte 6 .byte -40 .byte 6 .byte -40 .byte 6 .byte -40 .byte 6 .byte -109 .byte 10 .byte -109 .byte 10 .byte -109 .byte 10 .byte -109 .byte 10 .byte -85 .byte 0 .byte -85 .byte 0 .byte -85 .byte 0 .byte -85 .byte 0 .byte 115 .byte 48 .byte 115 .byte 48 .byte 115 .byte 48 .byte 115 .byte 48 .byte 115 .byte 48 .byte 115 .byte 48 .byte 115 .byte 48 .byte 115 .byte 48 .byte 44 .byte -53 .byte 44 .byte -53 .byte 44 .byte -53 .byte 44 .byte -53 .byte 44 .byte -53 .byte 44 .byte -53 .byte 44 .byte -53 .byte 44 .byte -53 .byte 115 .byte 7 .byte 115 .byte 7 .byte 115 .byte 7 .byte 115 .byte 7 .byte 115 .byte 7 .byte 115 .byte 7 .byte 115 .byte 7 .byte 115 .byte 7 .byte 44 .byte 7 .byte 44 .byte 7 .byte 44 .byte 7 .byte 44 .byte 7 .byte 44 .byte 7 .byte 44 .byte 7 .byte 44 .byte 7 .byte 44 .byte 7 .byte 103 .byte -58 .byte 103 .byte -58 .byte 103 .byte 1 .byte 103 .byte 1 .byte -116 .byte -21 .byte -116 .byte -21 .byte -116 .byte 7 .byte -116 .byte 7 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 11 .byte 123 .byte 11 .byte 123 .byte 11 .byte 10 .byte 11 .byte 10 .byte -102 .byte 57 .byte -102 .byte 57 .byte -102 .byte 11 .byte -102 .byte 11 .byte -43 .byte 52 .byte -43 .byte 52 .byte -43 .byte 52 .byte -43 .byte 52 .byte -43 .byte 52 .byte -43 .byte 52 .byte -43 .byte 52 .byte -43 .byte 52 .byte -114 .byte -49 .byte -114 .byte -49 .byte -114 .byte -49 .byte -114 .byte -49 .byte -114 .byte -49 .byte -114 .byte -49 .byte -114 .byte -49 .byte -114 .byte -49 .byte -43 .byte 5 .byte -43 .byte 5 .byte -43 .byte 5 .byte -43 .byte 5 .byte -43 .byte 5 .byte -43 .byte 5 .byte -43 .byte 5 .byte -43 .byte 5 .byte -114 .byte 5 .byte -114 .byte 5 .byte -114 .byte 5 .byte -114 .byte 5 .byte -114 .byte 5 .byte -114 .byte 5 .byte -114 .byte 5 .byte -114 .byte 5 .byte 86 .byte -82 .byte 86 .byte -82 .byte 86 .byte -82 .byte 86 .byte -82 .byte 110 .byte 108 .byte 110 .byte 108 .byte 110 .byte 108 .byte 110 .byte 108 .byte 41 .byte -15 .byte 41 .byte -15 .byte 41 .byte -15 .byte 41 .byte -15 .byte -74 .byte -62 .byte -74 .byte -62 .byte -74 .byte -62 .byte -74 .byte -62 .byte 86 .byte 12 .byte 86 .byte 12 .byte 86 .byte 12 .byte 86 .byte 12 .byte 110 .byte 2 .byte 110 .byte 2 .byte 110 .byte 2 .byte 110 .byte 2 .byte 41 .byte 6 .byte 41 .byte 6 .byte 41 .byte 6 .byte 41 .byte 6 .byte -74 .byte 0 .byte -74 .byte 0 .byte -74 .byte 0 .byte -74 .byte 0 .byte 61 .byte -23 .byte 61 .byte -23 .byte -44 .byte 67 .byte -44 .byte 67 .byte 8 .byte -103 .byte 8 .byte -103 .byte 127 .byte -114 .byte 127 .byte -114 .byte -60 .byte 21 .byte -60 .byte 21 .byte -78 .byte -5 .byte -78 .byte -5 .byte -65 .byte 83 .byte -65 .byte 83 .byte 127 .byte -103 .byte 127 .byte -103 .byte 61 .byte 2 .byte 61 .byte 2 .byte -44 .byte 7 .byte -44 .byte 7 .byte 8 .byte 1 .byte 8 .byte 1 .byte 127 .byte 1 .byte 127 .byte 1 .byte -60 .byte 9 .byte -60 .byte 9 .byte -78 .byte 5 .byte -78 .byte 5 .byte -65 .byte 6 .byte -65 .byte 6 .byte 127 .byte 12 .byte 127 .byte 12 .byte -57 .byte -23 .byte -116 .byte -26 .byte -39 .byte 5 .byte -9 .byte 120 .byte -12 .byte -93 .byte -45 .byte 78 .byte -25 .byte 80 .byte -7 .byte 97 .byte 4 .byte -50 .byte -7 .byte 103 .byte -63 .byte 62 .byte 103 .byte -49 .byte -81 .byte 35 .byte 119 .byte -3 .byte 126 .byte -102 .byte -67 .byte 108 .byte -57 .byte 4 .byte -116 .byte 2 .byte -39 .byte 10 .byte -9 .byte 3 .byte -12 .byte 7 .byte -45 .byte 5 .byte -25 .byte 11 .byte -7 .byte 6 .byte 4 .byte 2 .byte -7 .byte 12 .byte -63 .byte 11 .byte 103 .byte 10 .byte -81 .byte 6 .byte 119 .byte 8 .byte 126 .byte 0 .byte -67 .byte 5 .byte -78 .byte -2 .byte 43 .byte -45 .byte 30 .byte -126 .byte 14 .byte 80 .byte -90 .byte -109 .byte -79 .byte 3 .byte -34 .byte -59 .byte 38 .byte 24 .byte 11 .byte 125 .byte -121 .byte 41 .byte -8 .byte 113 .byte -89 .byte -113 .byte -53 .byte -73 .byte -103 .byte 68 .byte -94 .byte -57 .byte 101 .byte -21 .byte -78 .byte 8 .byte 43 .byte 2 .byte 30 .byte 8 .byte 14 .byte 6 .byte -90 .byte 1 .byte -79 .byte 0 .byte -34 .byte 11 .byte 38 .byte 6 .byte 11 .byte 12 .byte -121 .byte 4 .byte -8 .byte 9 .byte -89 .byte 10 .byte -53 .byte 6 .byte -103 .byte 9 .byte -94 .byte 1 .byte 101 .byte 12 .byte -82 .byte 43 .byte 75 .byte 52 .byte 103 .byte -56 .byte 105 .byte -85 .byte 75 .byte 51 .byte 22 .byte -18 .byte 53 .byte 90 .byte 117 .byte 21 .byte 10 .byte -127 .byte 110 .byte 118 .byte -53 .byte -74 .byte 95 .byte 49 .byte -124 .byte 78 .byte 93 .byte 72 .byte 73 .byte 76 .byte -74 .byte -50 .byte -82 .byte 1 .byte 75 .byte 3 .byte 103 .byte 3 .byte 105 .byte 0 .byte 75 .byte 2 .byte 22 .byte 12 .byte 53 .byte 11 .byte 117 .byte 6 .byte 10 .byte 3 .byte 110 .byte 12 .byte -53 .byte 5 .byte 95 .byte 4 .byte -124 .byte 2 .byte 93 .byte 1 .byte 73 .byte 1 .byte -74 .byte 12 .byte 20 .byte 3 .byte 20 .byte 3 .byte 20 .byte 7 .byte 20 .byte 7 .byte 31 .byte 110 .byte 31 .byte 110 .byte 31 .byte 110 .byte 31 .byte 110 .byte 31 .byte 110 .byte 31 .byte 110 .byte 31 .byte 110 .byte 31 .byte 110 .byte -54 .byte -66 .byte -54 .byte -66 .byte -54 .byte -66 .byte -54 .byte -66 .byte -54 .byte -66 .byte -54 .byte -66 .byte -54 .byte -66 .byte -54 .byte -66 .byte 31 .byte 1 .byte 31 .byte 1 .byte 31 .byte 1 .byte 31 .byte 1 .byte 31 .byte 1 .byte 31 .byte 1 .byte 31 .byte 1 .byte 31 .byte 1 .byte -54 .byte 0 .byte -54 .byte 0 .byte -54 .byte 0 .byte -54 .byte 0 .byte -54 .byte 0 .byte -54 .byte 0 .byte -54 .byte 0 .byte -54 .byte 0 .byte -62 .byte 41 .byte -62 .byte 41 .byte -62 .byte 41 .byte -62 .byte 41 .byte 79 .byte 5 .byte 79 .byte 5 .byte 79 .byte 5 .byte 79 .byte 5 .byte 63 .byte -44 .byte 63 .byte -44 .byte 63 .byte -44 .byte 63 .byte -44 .byte -68 .byte 121 .byte -68 .byte 121 .byte -68 .byte 121 .byte -68 .byte 121 .byte -62 .byte 3 .byte -62 .byte 3 .byte -62 .byte 3 .byte -62 .byte 3 .byte 79 .byte 8 .byte 79 .byte 8 .byte 79 .byte 8 .byte 79 .byte 8 .byte 63 .byte 7 .byte 63 .byte 7 .byte 63 .byte 7 .byte 63 .byte 7 .byte -68 .byte 5 .byte -68 .byte 5 .byte -68 .byte 5 .byte -68 .byte 5 .byte 88 .byte -110 .byte 88 .byte -110 .byte -7 .byte 94 .byte -7 .byte 94 .byte -36 .byte -42 .byte -36 .byte -42 .byte 96 .byte 34 .byte 96 .byte 34 .byte -5 .byte 71 .byte -5 .byte 71 .byte -101 .byte 34 .byte -101 .byte 34 .byte 52 .byte 104 .byte 52 .byte 104 .byte -34 .byte -64 .byte -34 .byte -64 .byte 88 .byte 10 .byte 88 .byte 10 .byte -7 .byte 3 .byte -7 .byte 3 .byte -36 .byte 2 .byte -36 .byte 2 .byte 96 .byte 2 .byte 96 .byte 2 .byte -5 .byte 6 .byte -5 .byte 6 .byte -101 .byte 1 .byte -101 .byte 1 .byte 52 .byte 12 .byte 52 .byte 12 .byte -34 .byte 6 .byte -34 .byte 6 .byte -84 .byte 77 .byte -89 .byte -111 .byte -14 .byte -63 .byte 62 .byte -35 .byte 107 .byte -111 .byte 116 .byte 35 .byte 10 .byte -118 .byte 74 .byte 71 .byte 115 .byte 52 .byte -63 .byte 54 .byte 29 .byte -114 .byte 44 .byte -50 .byte -64 .byte 65 .byte -40 .byte 16 .byte -91 .byte -95 .byte 6 .byte -70 .byte -84 .byte 9 .byte -89 .byte 12 .byte -14 .byte 11 .byte 62 .byte 3 .byte 107 .byte 0 .byte 116 .byte 7 .byte 10 .byte 12 .byte 74 .byte 9 .byte 115 .byte 11 .byte -63 .byte 3 .byte 29 .byte 7 .byte 44 .byte 10 .byte -64 .byte 1 .byte -40 .byte 8 .byte -91 .byte 2 .byte 6 .byte 8 .byte 49 .byte -122 .byte 91 .byte 99 .byte 42 .byte -29 .byte 72 .byte 95 .byte 66 .byte -82 .byte -62 .byte 42 .byte -105 .byte 94 .byte 94 .byte 66 .byte 96 .byte 40 .byte 3 .byte -31 .byte 27 .byte -88 .byte -101 .byte 42 .byte -107 .byte 123 .byte -28 .byte 111 .byte -66 .byte 93 .byte -14 .byte -69 .byte 49 .byte 3 .byte 91 .byte 2 .byte 42 .byte 5 .byte 72 .byte 7 .byte 66 .byte 8 .byte -62 .byte 4 .byte -105 .byte 9 .byte 94 .byte 8 .byte 96 .byte 8 .byte 3 .byte 8 .byte 27 .byte 7 .byte -101 .byte 9 .byte -107 .byte 12 .byte -28 .byte 3 .byte -66 .byte 3 .byte -14 .byte 5 .byte 73 .byte 79 .byte 98 .byte 8 .byte -4 .byte 59 .byte -128 .byte -127 .byte 121 .byte -25 .byte -54 .byte -59 .byte -36 .byte -44 .byte -122 .byte 56 .byte 7 .byte -84 .byte 26 .byte -79 .byte -85 .byte 90 .byte -34 .byte -69 .byte -51 .byte -94 .byte -33 .byte -80 .byte 77 .byte 30 .byte 92 .byte 90 .byte 73 .byte 4 .byte 98 .byte 2 .byte -4 .byte 7 .byte -128 .byte 1 .byte 121 .byte 12 .byte -54 .byte 7 .byte -36 .byte 0 .byte -122 .byte 6 .byte 7 .byte 7 .byte 26 .byte 3 .byte -85 .byte 9 .byte -34 .byte 1 .byte -51 .byte 11 .byte -33 .byte 3 .byte 77 .byte 7 .byte 92 .byte 6 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 7 .byte 0 .byte 1 .byte 2 .byte 3 .byte 4 .byte 5 .byte 6 .byte 15 .byte 8 .byte 9 .byte 10 .byte 11 .byte 12 .byte 13 .byte 14 .byte 23 .byte 16 .byte 17 .byte 18 .byte 19 .byte 20 .byte 21 .byte 22 .byte 31 .byte 24 .byte 25 .byte 26 .byte 27 .byte 28 .byte 29 .byte 30 .byte 1 .byte 2 .byte 3 .byte 4 .byte 5 .byte 6 .byte 7 .byte 0 .byte 9 .byte 10 .byte 11 .byte 12 .byte 13 .byte 14 .byte 15 .byte 8 .byte 17 .byte 18 .byte 19 .byte 20 .byte 21 .byte 22 .byte 23 .byte 16 .byte 25 .byte 26 .byte 27 .byte 28 .byte 29 .byte 30 .byte 31 .byte 24 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 61 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 46 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 28 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 23 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 63 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 36 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 37 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 19 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 58 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 54 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 56 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 62 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 49 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 39 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 44 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 43 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 50 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 18 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 36 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 41 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 62 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 28 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 27 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 45 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 6 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 56 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 39 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 61 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 55 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 15 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 44 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 43 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 14 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte 1 .byte 4 .byte 5 .byte 8 .byte 9 .byte 12 .byte 13 .byte 2 .byte 3 .byte 6 .byte 7 .byte 10 .byte 11 .byte 14 .byte 15 .byte 3 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 6 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 6 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte -1 .byte -1 .byte -1 .byte -1 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte 6 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 6 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte 8 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 8 .byte -1 .byte -1 .byte -1 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte 6 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 6 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 10 .byte -1 .byte -1 .byte -1 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte 6 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte 4 .byte 6 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte 8 .byte 10 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 8 .byte 10 .byte -1 .byte -1 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 6 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 6 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 12 .byte -1 .byte -1 .byte -1 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte 6 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte 4 .byte 6 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte 8 .byte 12 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 8 .byte 12 .byte -1 .byte -1 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte 6 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte 4 .byte 6 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 10 .byte 12 .byte -1 .byte -1 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte 4 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte 6 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte 4 .byte 6 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte 8 .byte 10 .byte 12 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 8 .byte 10 .byte 12 .byte -1 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 6 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 6 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 14 .byte -1 .byte -1 .byte -1 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte 6 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte 4 .byte 6 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte 8 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 8 .byte 14 .byte -1 .byte -1 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte 6 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte 4 .byte 6 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 10 .byte 14 .byte -1 .byte -1 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte 4 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte 6 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte 4 .byte 6 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte 8 .byte 10 .byte 14 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 8 .byte 10 .byte 14 .byte -1 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 4 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 6 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 4 .byte 6 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 12 .byte 14 .byte -1 .byte -1 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 4 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte 6 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte 4 .byte 6 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte 8 .byte 12 .byte 14 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 8 .byte 12 .byte 14 .byte -1 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 2 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 4 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 2 .byte 4 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte 6 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 2 .byte 6 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte 4 .byte 6 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte 2 .byte 4 .byte 6 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 10 .byte 12 .byte 14 .byte -1 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte -1 .byte 0 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 2 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 2 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte 4 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 4 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte 2 .byte 4 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte 0 .byte 2 .byte 4 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte 6 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte -1 .byte 0 .byte 6 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte 2 .byte 6 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte 0 .byte 2 .byte 6 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte 4 .byte 6 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte -1 .byte 0 .byte 4 .byte 6 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte 2 .byte 4 .byte 6 .byte 8 .byte 10 .byte 12 .byte 14 .byte -1 .byte 0 .byte 2 .byte 4 .byte 6 .byte 8 .byte 10 .byte 12 .byte 14 .byte 12 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 4 .byte 1 .byte 0 .byte 0 .byte 4 .byte 4 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 4 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 5 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 6 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 7 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 24 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 13 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 18 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 23 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 16 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 22 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 15 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 11 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 12 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 26 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 19 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 17 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 14 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 27 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -8 .byte 31 .byte -32 .byte 127 .byte 4 .byte 52 .byte 1 .byte 13 .byte 0 .byte 8 .byte -128 .byte 0 .byte 15 .byte 0 .byte -16 .byte 0 .byte -1 .byte 15 .byte -1 .byte 3 .byte 0 .byte 16 .byte 15 .byte 0 .byte 1 .byte 16 .byte 15 .byte 0 .byte 0 .byte 2 .byte 1 .byte 0 .byte 1 .byte 2 .byte -1 .byte 3 .byte 4 .byte 5 .byte -1 .byte 6 .byte 7 .byte 8 .byte -1 .byte 9 .byte 10 .byte 11 .byte -1 .byte 4 .byte 5 .byte 6 .byte -1 .byte 7 .byte 8 .byte 9 .byte -1 .byte 10 .byte 11 .byte 12 .byte -1 .byte 13 .byte 14 .byte 15 .byte -1 .byte -5 .byte 58 .byte -5 .byte 58 .byte -5 .byte 58 .byte -5 .byte 58 .byte -5 .byte 58 .byte -5 .byte 58 .byte -5 .byte 58 .byte -5 .byte 58 .byte -5 .byte 58 .byte -5 .byte 58 .byte -5 .byte 58 .byte -5 .byte 58 .byte -5 .byte 58 .byte -5 .byte 58 .byte -5 .byte 58 .byte -5 .byte 58 .byte -91 .byte 6 .byte 15 .byte 7 .byte -76 .byte 5 .byte 67 .byte 9 .byte 34 .byte 9 .byte 29 .byte 9 .byte 52 .byte 1 .byte 108 .byte 0 .byte 35 .byte 11 .byte 102 .byte 3 .byte 86 .byte 3 .byte -26 .byte 5 .byte -25 .byte 9 .byte -2 .byte 4 .byte -6 .byte 5 .byte -95 .byte 4 .byte 123 .byte 6 .byte -93 .byte 4 .byte 37 .byte 12 .byte 106 .byte 3 .byte 55 .byte 5 .byte 63 .byte 8 .byte -120 .byte 0 .byte -65 .byte 4 .byte -127 .byte 11 .byte -71 .byte 5 .byte 5 .byte 5 .byte -41 .byte 7 .byte -97 .byte 10 .byte -90 .byte 10 .byte -72 .byte 8 .byte -48 .byte 9 .byte 75 .byte 0 .byte -100 .byte 0 .byte -72 .byte 11 .byte 95 .byte 11 .byte -92 .byte 11 .byte 104 .byte 3 .byte 125 .byte 10 .byte 54 .byte 6 .byte -94 .byte 8 .byte 90 .byte 2 .byte 54 .byte 7 .byte 9 .byte 3 .byte -109 .byte 0 .byte 122 .byte 8 .byte -9 .byte 9 .byte -10 .byte 0 .byte -116 .byte 6 .byte -37 .byte 6 .byte -52 .byte 1 .byte 35 .byte 1 .byte -21 .byte 0 .byte 80 .byte 12 .byte -74 .byte 10 .byte 91 .byte 11 .byte -104 .byte 12 .byte -13 .byte 6 .byte -102 .byte 9 .byte -29 .byte 4 .byte -74 .byte 9 .byte -42 .byte 10 .byte 83 .byte 11 .byte 79 .byte 4 .byte -5 .byte 4 .byte 92 .byte 10 .byte 41 .byte 4 .byte 65 .byte 11 .byte -43 .byte 2 .byte -28 .byte 5 .byte 64 .byte 9 .byte -114 .byte 1 .byte -73 .byte 3 .byte -9 .byte 0 .byte -115 .byte 5 .byte -106 .byte 12 .byte -61 .byte 9 .byte 15 .byte 1 .byte 90 .byte 0 .byte 85 .byte 3 .byte 68 .byte 7 .byte -125 .byte 12 .byte -118 .byte 4 .byte 82 .byte 6 .byte -102 .byte 2 .byte 64 .byte 1 .byte 8 .byte 0 .byte -3 .byte 10 .byte 8 .byte 6 .byte 26 .byte 1 .byte 46 .byte 7 .byte 13 .byte 5 .byte 10 .byte 9 .byte 40 .byte 2 .byte 117 .byte 10 .byte 58 .byte 8 .byte 35 .byte 6 .byte -51 .byte 0 .byte 102 .byte 11 .byte 6 .byte 6 .byte -95 .byte 10 .byte 37 .byte 10 .byte 8 .byte 9 .byte -87 .byte 2 .byte -126 .byte 0 .byte 66 .byte 6 .byte 79 .byte 7 .byte 61 .byte 3 .byte -126 .byte 11 .byte -7 .byte 11 .byte 45 .byte 5 .byte -60 .byte 10 .byte 69 .byte 7 .byte -62 .byte 5 .byte -78 .byte 4 .byte 63 .byte 9 .byte 75 .byte 12 .byte -40 .byte 6 .byte -109 .byte 10 .byte -85 .byte 0 .byte 55 .byte 12 .byte -30 .byte 11 .byte 115 .byte 7 .byte 44 .byte 7 .byte -19 .byte 5 .byte 103 .byte 1 .byte -10 .byte 2 .byte -95 .byte 5 .byte -19 .byte 8 .byte 11 .byte 10 .byte -102 .byte 11 .byte 20 .byte 7 .byte -43 .byte 5 .byte -114 .byte 5 .byte 31 .byte 1 .byte -54 .byte 0 .byte 86 .byte 12 .byte 110 .byte 2 .byte 41 .byte 6 .byte -74 .byte 0 .byte -62 .byte 3 .byte 79 .byte 8 .byte 63 .byte 7 .byte -68 .byte 5 .byte 61 .byte 2 .byte -44 .byte 7 .byte 8 .byte 1 .byte 127 .byte 1 .byte -60 .byte 9 .byte -78 .byte 5 .byte -65 .byte 6 .byte 127 .byte 12 .byte 88 .byte 10 .byte -7 .byte 3 .byte -36 .byte 2 .byte 96 .byte 2 .byte -5 .byte 6 .byte -101 .byte 1 .byte 52 .byte 12 .byte -34 .byte 6 .byte -57 .byte 4 .byte -116 .byte 2 .byte -39 .byte 10 .byte -9 .byte 3 .byte -12 .byte 7 .byte -45 .byte 5 .byte -25 .byte 11 .byte -7 .byte 6 .byte 4 .byte 2 .byte -7 .byte 12 .byte -63 .byte 11 .byte 103 .byte 10 .byte -81 .byte 6 .byte 119 .byte 8 .byte 126 .byte 0 .byte -67 .byte 5 .byte -84 .byte 9 .byte -89 .byte 12 .byte -14 .byte 11 .byte 62 .byte 3 .byte 107 .byte 0 .byte 116 .byte 7 .byte 10 .byte 12 .byte 74 .byte 9 .byte 115 .byte 11 .byte -63 .byte 3 .byte 29 .byte 7 .byte 44 .byte 10 .byte -64 .byte 1 .byte -40 .byte 8 .byte -91 .byte 2 .byte 6 .byte 8 .byte -78 .byte 8 .byte -82 .byte 1 .byte 43 .byte 2 .byte 75 .byte 3 .byte 30 .byte 8 .byte 103 .byte 3 .byte 14 .byte 6 .byte 105 .byte 0 .byte -90 .byte 1 .byte 75 .byte 2 .byte -79 .byte 0 .byte 22 .byte 12 .byte -34 .byte 11 .byte 53 .byte 11 .byte 38 .byte 6 .byte 117 .byte 6 .byte 11 .byte 12 .byte 10 .byte 3 .byte -121 .byte 4 .byte 110 .byte 12 .byte -8 .byte 9 .byte -53 .byte 5 .byte -89 .byte 10 .byte 95 .byte 4 .byte -53 .byte 6 .byte -124 .byte 2 .byte -103 .byte 9 .byte 93 .byte 1 .byte -94 .byte 1 .byte 73 .byte 1 .byte 101 .byte 12 .byte -74 .byte 12 .byte 49 .byte 3 .byte 73 .byte 4 .byte 91 .byte 2 .byte 98 .byte 2 .byte 42 .byte 5 .byte -4 .byte 7 .byte 72 .byte 7 .byte -128 .byte 1 .byte 66 .byte 8 .byte 121 .byte 12 .byte -62 .byte 4 .byte -54 .byte 7 .byte -105 .byte 9 .byte -36 .byte 0 .byte 94 .byte 8 .byte -122 .byte 6 .byte 96 .byte 8 .byte 7 .byte 7 .byte 3 .byte 8 .byte 26 .byte 3 .byte 27 .byte 7 .byte -85 .byte 9 .byte -101 .byte 9 .byte -34 .byte 1 .byte -107 .byte 12 .byte -51 .byte 11 .byte -28 .byte 3 .byte -33 .byte 3 .byte -66 .byte 3 .byte 77 .byte 7 .byte -14 .byte 5 .byte 92 .byte 6 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128
verdict-x509/verdict
60,313
deps/libcrux/sys/libjade/jazz/chacha20_avx.s
.att_syntax .text .p2align 5 .globl _jade_stream_chacha_chacha20_ietf_amd64_avx .globl jade_stream_chacha_chacha20_ietf_amd64_avx .globl _jade_stream_chacha_chacha20_ietf_amd64_avx_xor .globl jade_stream_chacha_chacha20_ietf_amd64_avx_xor _jade_stream_chacha_chacha20_ietf_amd64_avx: jade_stream_chacha_chacha20_ietf_amd64_avx: movq %rsp, %r10 leaq -592(%rsp), %rsp andq $-16, %rsp cmpq $129, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$1 vmovdqu glob_data + 64(%rip), %xmm0 vmovdqu glob_data + 48(%rip), %xmm1 vmovdqu %xmm0, (%rsp) vmovdqu %xmm1, 16(%rsp) vmovdqu glob_data + 112(%rip), %xmm0 vmovdqu glob_data + 128(%rip), %xmm1 vmovdqu glob_data + 144(%rip), %xmm2 vmovdqu glob_data + 160(%rip), %xmm3 vpbroadcastd (%rcx), %xmm4 vpbroadcastd 4(%rcx), %xmm5 vpbroadcastd 8(%rcx), %xmm6 vpbroadcastd 12(%rcx), %xmm7 vpbroadcastd 16(%rcx), %xmm8 vpbroadcastd 20(%rcx), %xmm9 vpbroadcastd 24(%rcx), %xmm10 vpbroadcastd 28(%rcx), %xmm11 vmovdqu glob_data + 96(%rip), %xmm12 vpbroadcastd (%rdx), %xmm13 vpbroadcastd 4(%rdx), %xmm14 vpbroadcastd 8(%rdx), %xmm15 vmovdqu %xmm0, 336(%rsp) vmovdqu %xmm1, 352(%rsp) vmovdqu %xmm2, 368(%rsp) vmovdqu %xmm3, 384(%rsp) vmovdqu %xmm4, 400(%rsp) vmovdqu %xmm5, 416(%rsp) vmovdqu %xmm6, 432(%rsp) vmovdqu %xmm7, 448(%rsp) vmovdqu %xmm8, 464(%rsp) vmovdqu %xmm9, 480(%rsp) vmovdqu %xmm10, 496(%rsp) vmovdqu %xmm11, 512(%rsp) vmovdqu %xmm12, 528(%rsp) vmovdqu %xmm13, 544(%rsp) vmovdqu %xmm14, 560(%rsp) vmovdqu %xmm15, 576(%rsp) jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx$29 Ljade_stream_chacha_chacha20_ietf_amd64_avx$30: vmovdqu 336(%rsp), %xmm0 vmovdqu 352(%rsp), %xmm1 vmovdqu 368(%rsp), %xmm2 vmovdqu 384(%rsp), %xmm3 vmovdqu 400(%rsp), %xmm4 vmovdqu 416(%rsp), %xmm5 vmovdqu 432(%rsp), %xmm6 vmovdqu 448(%rsp), %xmm7 vmovdqu 464(%rsp), %xmm8 vmovdqu 480(%rsp), %xmm9 vmovdqu 496(%rsp), %xmm10 vmovdqu 512(%rsp), %xmm11 vmovdqu 528(%rsp), %xmm12 vmovdqu 544(%rsp), %xmm13 vmovdqu 560(%rsp), %xmm14 vmovdqu 576(%rsp), %xmm15 vmovdqu %xmm15, 32(%rsp) movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx$31: vpaddd %xmm4, %xmm0, %xmm0 vpxor %xmm0, %xmm12, %xmm12 vpshufb (%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm8, %xmm8 vpxor %xmm8, %xmm4, %xmm4 vpslld $12, %xmm4, %xmm15 vpsrld $20, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 vpaddd %xmm4, %xmm0, %xmm0 vpxor %xmm0, %xmm12, %xmm12 vpshufb 16(%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm8, %xmm8 vpxor %xmm8, %xmm4, %xmm4 vpslld $7, %xmm4, %xmm15 vpsrld $25, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 vpaddd %xmm5, %xmm1, %xmm1 vpxor %xmm1, %xmm13, %xmm13 vpshufb (%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm9, %xmm9 vpxor %xmm9, %xmm5, %xmm5 vpslld $12, %xmm5, %xmm15 vpsrld $20, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vpaddd %xmm5, %xmm1, %xmm1 vpxor %xmm1, %xmm13, %xmm13 vpshufb 16(%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm9, %xmm9 vpxor %xmm9, %xmm5, %xmm5 vpslld $7, %xmm5, %xmm15 vpsrld $25, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vpaddd %xmm6, %xmm2, %xmm2 vpxor %xmm2, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm6, %xmm6 vpslld $12, %xmm6, %xmm15 vpsrld $20, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vpaddd %xmm6, %xmm2, %xmm2 vpxor %xmm2, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm6, %xmm6 vpslld $7, %xmm6, %xmm15 vpsrld $25, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vmovdqu %xmm14, 48(%rsp) vmovdqu 32(%rsp), %xmm14 vpaddd %xmm7, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm11, %xmm11 vpxor %xmm11, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm15 vpsrld $20, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vpaddd %xmm7, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm11, %xmm11 vpxor %xmm11, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm15 vpsrld $25, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vmovdqu %xmm14, 64(%rsp) vmovdqu 48(%rsp), %xmm14 vmovdqu %xmm14, 48(%rsp) vmovdqu 64(%rsp), %xmm14 vpaddd %xmm5, %xmm0, %xmm0 vpxor %xmm0, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm5, %xmm5 vpslld $12, %xmm5, %xmm15 vpsrld $20, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vpaddd %xmm5, %xmm0, %xmm0 vpxor %xmm0, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm5, %xmm5 vpslld $7, %xmm5, %xmm15 vpsrld $25, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vmovdqu %xmm14, 32(%rsp) vmovdqu 48(%rsp), %xmm14 vpaddd %xmm6, %xmm1, %xmm1 vpxor %xmm1, %xmm12, %xmm12 vpshufb (%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm11, %xmm11 vpxor %xmm11, %xmm6, %xmm6 vpslld $12, %xmm6, %xmm15 vpsrld $20, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vpaddd %xmm6, %xmm1, %xmm1 vpxor %xmm1, %xmm12, %xmm12 vpshufb 16(%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm11, %xmm11 vpxor %xmm11, %xmm6, %xmm6 vpslld $7, %xmm6, %xmm15 vpsrld $25, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vpaddd %xmm7, %xmm2, %xmm2 vpxor %xmm2, %xmm13, %xmm13 vpshufb (%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm15 vpsrld $20, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vpaddd %xmm7, %xmm2, %xmm2 vpxor %xmm2, %xmm13, %xmm13 vpshufb 16(%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm15 vpsrld $25, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vpaddd %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm9, %xmm9 vpxor %xmm9, %xmm4, %xmm4 vpslld $12, %xmm4, %xmm15 vpsrld $20, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 vpaddd %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm9, %xmm9 vpxor %xmm9, %xmm4, %xmm4 vpslld $7, %xmm4, %xmm15 vpsrld $25, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$31 vmovdqu 32(%rsp), %xmm15 vpaddd 336(%rsp), %xmm0, %xmm0 vpaddd 352(%rsp), %xmm1, %xmm1 vpaddd 368(%rsp), %xmm2, %xmm2 vpaddd 384(%rsp), %xmm3, %xmm3 vpaddd 400(%rsp), %xmm4, %xmm4 vpaddd 416(%rsp), %xmm5, %xmm5 vpaddd 432(%rsp), %xmm6, %xmm6 vpaddd 448(%rsp), %xmm7, %xmm7 vpaddd 464(%rsp), %xmm8, %xmm8 vpaddd 480(%rsp), %xmm9, %xmm9 vpaddd 496(%rsp), %xmm10, %xmm10 vpaddd 512(%rsp), %xmm11, %xmm11 vpaddd 528(%rsp), %xmm12, %xmm12 vpaddd 544(%rsp), %xmm13, %xmm13 vpaddd 560(%rsp), %xmm14, %xmm14 vpaddd 576(%rsp), %xmm15, %xmm15 vmovdqu %xmm8, 80(%rsp) vmovdqu %xmm9, 96(%rsp) vmovdqu %xmm10, 112(%rsp) vmovdqu %xmm11, 128(%rsp) vmovdqu %xmm12, 144(%rsp) vmovdqu %xmm13, 160(%rsp) vmovdqu %xmm14, 176(%rsp) vmovdqu %xmm15, 192(%rsp) vpunpckldq %xmm1, %xmm0, %xmm8 vpunpckhdq %xmm1, %xmm0, %xmm0 vpunpckldq %xmm3, %xmm2, %xmm1 vpunpckhdq %xmm3, %xmm2, %xmm2 vpunpckldq %xmm5, %xmm4, %xmm3 vpunpckhdq %xmm5, %xmm4, %xmm4 vpunpckldq %xmm7, %xmm6, %xmm5 vpunpckhdq %xmm7, %xmm6, %xmm6 vpunpcklqdq %xmm1, %xmm8, %xmm7 vpunpcklqdq %xmm5, %xmm3, %xmm9 vpunpckhqdq %xmm1, %xmm8, %xmm1 vpunpckhqdq %xmm5, %xmm3, %xmm3 vpunpcklqdq %xmm2, %xmm0, %xmm5 vpunpcklqdq %xmm6, %xmm4, %xmm8 vpunpckhqdq %xmm2, %xmm0, %xmm0 vpunpckhqdq %xmm6, %xmm4, %xmm2 vmovdqu %xmm7, (%rdi) vmovdqu %xmm9, 16(%rdi) vmovdqu %xmm1, 64(%rdi) vmovdqu %xmm3, 80(%rdi) vmovdqu %xmm5, 128(%rdi) vmovdqu %xmm8, 144(%rdi) vmovdqu %xmm0, 192(%rdi) vmovdqu %xmm2, 208(%rdi) vmovdqu 80(%rsp), %xmm0 vmovdqu 112(%rsp), %xmm1 vmovdqu 144(%rsp), %xmm2 vmovdqu 176(%rsp), %xmm3 vpunpckldq 96(%rsp), %xmm0, %xmm4 vpunpckhdq 96(%rsp), %xmm0, %xmm0 vpunpckldq 128(%rsp), %xmm1, %xmm5 vpunpckhdq 128(%rsp), %xmm1, %xmm1 vpunpckldq 160(%rsp), %xmm2, %xmm6 vpunpckhdq 160(%rsp), %xmm2, %xmm2 vpunpckldq 192(%rsp), %xmm3, %xmm7 vpunpckhdq 192(%rsp), %xmm3, %xmm3 vpunpcklqdq %xmm5, %xmm4, %xmm8 vpunpcklqdq %xmm7, %xmm6, %xmm9 vpunpckhqdq %xmm5, %xmm4, %xmm4 vpunpckhqdq %xmm7, %xmm6, %xmm5 vpunpcklqdq %xmm1, %xmm0, %xmm6 vpunpcklqdq %xmm3, %xmm2, %xmm7 vpunpckhqdq %xmm1, %xmm0, %xmm0 vpunpckhqdq %xmm3, %xmm2, %xmm1 vmovdqu %xmm8, 32(%rdi) vmovdqu %xmm9, 48(%rdi) vmovdqu %xmm4, 96(%rdi) vmovdqu %xmm5, 112(%rdi) vmovdqu %xmm6, 160(%rdi) vmovdqu %xmm7, 176(%rdi) vmovdqu %xmm0, 224(%rdi) vmovdqu %xmm1, 240(%rdi) addq $256, %rdi addq $-256, %rsi vmovdqu glob_data + 0(%rip), %xmm0 vpaddd 528(%rsp), %xmm0, %xmm0 vmovdqu %xmm0, 528(%rsp) Ljade_stream_chacha_chacha20_ietf_amd64_avx$29: cmpq $256, %rsi jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx$30 cmpq $0, %rsi jbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$2 vmovdqu 336(%rsp), %xmm0 vmovdqu 352(%rsp), %xmm1 vmovdqu 368(%rsp), %xmm2 vmovdqu 384(%rsp), %xmm3 vmovdqu 400(%rsp), %xmm4 vmovdqu 416(%rsp), %xmm5 vmovdqu 432(%rsp), %xmm6 vmovdqu 448(%rsp), %xmm7 vmovdqu 464(%rsp), %xmm8 vmovdqu 480(%rsp), %xmm9 vmovdqu 496(%rsp), %xmm10 vmovdqu 512(%rsp), %xmm11 vmovdqu 528(%rsp), %xmm12 vmovdqu 544(%rsp), %xmm13 vmovdqu 560(%rsp), %xmm14 vmovdqu 576(%rsp), %xmm15 vmovdqu %xmm15, 32(%rsp) movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx$28: vpaddd %xmm4, %xmm0, %xmm0 vpxor %xmm0, %xmm12, %xmm12 vpshufb (%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm8, %xmm8 vpxor %xmm8, %xmm4, %xmm4 vpslld $12, %xmm4, %xmm15 vpsrld $20, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 vpaddd %xmm4, %xmm0, %xmm0 vpxor %xmm0, %xmm12, %xmm12 vpshufb 16(%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm8, %xmm8 vpxor %xmm8, %xmm4, %xmm4 vpslld $7, %xmm4, %xmm15 vpsrld $25, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 vpaddd %xmm5, %xmm1, %xmm1 vpxor %xmm1, %xmm13, %xmm13 vpshufb (%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm9, %xmm9 vpxor %xmm9, %xmm5, %xmm5 vpslld $12, %xmm5, %xmm15 vpsrld $20, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vpaddd %xmm5, %xmm1, %xmm1 vpxor %xmm1, %xmm13, %xmm13 vpshufb 16(%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm9, %xmm9 vpxor %xmm9, %xmm5, %xmm5 vpslld $7, %xmm5, %xmm15 vpsrld $25, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vpaddd %xmm6, %xmm2, %xmm2 vpxor %xmm2, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm6, %xmm6 vpslld $12, %xmm6, %xmm15 vpsrld $20, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vpaddd %xmm6, %xmm2, %xmm2 vpxor %xmm2, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm6, %xmm6 vpslld $7, %xmm6, %xmm15 vpsrld $25, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vmovdqu %xmm14, 48(%rsp) vmovdqu 32(%rsp), %xmm14 vpaddd %xmm7, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm11, %xmm11 vpxor %xmm11, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm15 vpsrld $20, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vpaddd %xmm7, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm11, %xmm11 vpxor %xmm11, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm15 vpsrld $25, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vmovdqu %xmm14, 64(%rsp) vmovdqu 48(%rsp), %xmm14 vmovdqu %xmm14, 48(%rsp) vmovdqu 64(%rsp), %xmm14 vpaddd %xmm5, %xmm0, %xmm0 vpxor %xmm0, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm5, %xmm5 vpslld $12, %xmm5, %xmm15 vpsrld $20, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vpaddd %xmm5, %xmm0, %xmm0 vpxor %xmm0, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm5, %xmm5 vpslld $7, %xmm5, %xmm15 vpsrld $25, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vmovdqu %xmm14, 32(%rsp) vmovdqu 48(%rsp), %xmm14 vpaddd %xmm6, %xmm1, %xmm1 vpxor %xmm1, %xmm12, %xmm12 vpshufb (%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm11, %xmm11 vpxor %xmm11, %xmm6, %xmm6 vpslld $12, %xmm6, %xmm15 vpsrld $20, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vpaddd %xmm6, %xmm1, %xmm1 vpxor %xmm1, %xmm12, %xmm12 vpshufb 16(%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm11, %xmm11 vpxor %xmm11, %xmm6, %xmm6 vpslld $7, %xmm6, %xmm15 vpsrld $25, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vpaddd %xmm7, %xmm2, %xmm2 vpxor %xmm2, %xmm13, %xmm13 vpshufb (%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm15 vpsrld $20, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vpaddd %xmm7, %xmm2, %xmm2 vpxor %xmm2, %xmm13, %xmm13 vpshufb 16(%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm15 vpsrld $25, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vpaddd %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm9, %xmm9 vpxor %xmm9, %xmm4, %xmm4 vpslld $12, %xmm4, %xmm15 vpsrld $20, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 vpaddd %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm9, %xmm9 vpxor %xmm9, %xmm4, %xmm4 vpslld $7, %xmm4, %xmm15 vpsrld $25, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$28 vmovdqu 32(%rsp), %xmm15 vpaddd 336(%rsp), %xmm0, %xmm0 vpaddd 352(%rsp), %xmm1, %xmm1 vpaddd 368(%rsp), %xmm2, %xmm2 vpaddd 384(%rsp), %xmm3, %xmm3 vpaddd 400(%rsp), %xmm4, %xmm4 vpaddd 416(%rsp), %xmm5, %xmm5 vpaddd 432(%rsp), %xmm6, %xmm6 vpaddd 448(%rsp), %xmm7, %xmm7 vpaddd 464(%rsp), %xmm8, %xmm8 vpaddd 480(%rsp), %xmm9, %xmm9 vpaddd 496(%rsp), %xmm10, %xmm10 vpaddd 512(%rsp), %xmm11, %xmm11 vpaddd 528(%rsp), %xmm12, %xmm12 vpaddd 544(%rsp), %xmm13, %xmm13 vpaddd 560(%rsp), %xmm14, %xmm14 vpaddd 576(%rsp), %xmm15, %xmm15 vmovdqu %xmm8, 80(%rsp) vmovdqu %xmm9, 96(%rsp) vmovdqu %xmm10, 112(%rsp) vmovdqu %xmm11, 128(%rsp) vmovdqu %xmm12, 144(%rsp) vmovdqu %xmm13, 160(%rsp) vmovdqu %xmm14, 176(%rsp) vmovdqu %xmm15, 192(%rsp) vpunpckldq %xmm1, %xmm0, %xmm8 vpunpckhdq %xmm1, %xmm0, %xmm0 vpunpckldq %xmm3, %xmm2, %xmm1 vpunpckhdq %xmm3, %xmm2, %xmm2 vpunpckldq %xmm5, %xmm4, %xmm3 vpunpckhdq %xmm5, %xmm4, %xmm4 vpunpckldq %xmm7, %xmm6, %xmm5 vpunpckhdq %xmm7, %xmm6, %xmm6 vpunpcklqdq %xmm1, %xmm8, %xmm7 vpunpcklqdq %xmm5, %xmm3, %xmm9 vpunpckhqdq %xmm1, %xmm8, %xmm1 vpunpckhqdq %xmm5, %xmm3, %xmm3 vpunpcklqdq %xmm2, %xmm0, %xmm5 vpunpcklqdq %xmm6, %xmm4, %xmm8 vpunpckhqdq %xmm2, %xmm0, %xmm0 vpunpckhqdq %xmm6, %xmm4, %xmm2 vmovdqu %xmm7, 208(%rsp) vmovdqu %xmm9, 224(%rsp) vmovdqu %xmm1, 240(%rsp) vmovdqu %xmm3, 256(%rsp) vmovdqu %xmm5, 272(%rsp) vmovdqu %xmm8, 288(%rsp) vmovdqu %xmm0, 304(%rsp) vmovdqu %xmm2, 320(%rsp) vmovdqu 80(%rsp), %xmm0 vmovdqu 112(%rsp), %xmm1 vmovdqu 144(%rsp), %xmm2 vmovdqu 176(%rsp), %xmm3 vpunpckldq 96(%rsp), %xmm0, %xmm4 vpunpckhdq 96(%rsp), %xmm0, %xmm0 vpunpckldq 128(%rsp), %xmm1, %xmm5 vpunpckhdq 128(%rsp), %xmm1, %xmm1 vpunpckldq 160(%rsp), %xmm2, %xmm6 vpunpckhdq 160(%rsp), %xmm2, %xmm2 vpunpckldq 192(%rsp), %xmm3, %xmm7 vpunpckhdq 192(%rsp), %xmm3, %xmm3 vpunpcklqdq %xmm5, %xmm4, %xmm8 vpunpcklqdq %xmm7, %xmm6, %xmm9 vpunpckhqdq %xmm5, %xmm4, %xmm4 vpunpckhqdq %xmm7, %xmm6, %xmm5 vpunpcklqdq %xmm1, %xmm0, %xmm6 vpunpcklqdq %xmm3, %xmm2, %xmm7 vpunpckhqdq %xmm1, %xmm0, %xmm0 vpunpckhqdq %xmm3, %xmm2, %xmm1 vmovdqu 208(%rsp), %xmm13 vmovdqu 224(%rsp), %xmm12 vmovdqu %xmm8, %xmm11 vmovdqu %xmm9, %xmm10 vmovdqu 240(%rsp), %xmm9 vmovdqu 256(%rsp), %xmm8 vmovdqu %xmm4, %xmm3 vmovdqu %xmm5, %xmm2 cmpq $128, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$27 vmovdqu %xmm13, (%rdi) vmovdqu %xmm12, 16(%rdi) vmovdqu %xmm11, 32(%rdi) vmovdqu %xmm10, 48(%rdi) vmovdqu %xmm9, 64(%rdi) vmovdqu %xmm8, 80(%rdi) vmovdqu %xmm3, 96(%rdi) vmovdqu %xmm2, 112(%rdi) addq $128, %rdi addq $-128, %rsi vmovdqu 272(%rsp), %xmm13 vmovdqu 288(%rsp), %xmm12 vmovdqu %xmm6, %xmm11 vmovdqu %xmm7, %xmm10 vmovdqu 304(%rsp), %xmm9 vmovdqu 320(%rsp), %xmm8 vmovdqu %xmm0, %xmm3 vmovdqu %xmm1, %xmm2 Ljade_stream_chacha_chacha20_ietf_amd64_avx$27: cmpq $64, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$26 vmovdqu %xmm13, (%rdi) vmovdqu %xmm12, 16(%rdi) vmovdqu %xmm11, 32(%rdi) vmovdqu %xmm10, 48(%rdi) addq $64, %rdi addq $-64, %rsi vmovdqu %xmm9, %xmm13 vmovdqu %xmm8, %xmm12 vmovdqu %xmm3, %xmm11 vmovdqu %xmm2, %xmm10 Ljade_stream_chacha_chacha20_ietf_amd64_avx$26: cmpq $32, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$25 vmovdqu %xmm13, (%rdi) vmovdqu %xmm12, 16(%rdi) addq $32, %rdi addq $-32, %rsi vmovdqu %xmm11, %xmm13 vmovdqu %xmm10, %xmm12 Ljade_stream_chacha_chacha20_ietf_amd64_avx$25: cmpq $16, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$24 vmovdqu %xmm13, (%rdi) addq $16, %rdi addq $-16, %rsi vmovdqu %xmm12, %xmm13 Ljade_stream_chacha_chacha20_ietf_amd64_avx$24: vpextrq $0, %xmm13, %rax cmpq $8, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$21 movq %rax, (%rdi) addq $8, %rdi addq $-8, %rsi vpextrq $1, %xmm13, %rax Ljade_stream_chacha_chacha20_ietf_amd64_avx$23: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx$21 Ljade_stream_chacha_chacha20_ietf_amd64_avx$22: movb %al, %cl movb %cl, (%rdi) shrq $8, %rax incq %rdi addq $-1, %rsi Ljade_stream_chacha_chacha20_ietf_amd64_avx$21: cmpq $0, %rsi jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$22 Ljade_stream_chacha_chacha20_ietf_amd64_avx$20: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx$2 Ljade_stream_chacha_chacha20_ietf_amd64_avx$1: vmovdqu glob_data + 64(%rip), %xmm0 vmovdqu glob_data + 48(%rip), %xmm1 vmovdqu glob_data + 208(%rip), %xmm2 vmovdqu (%rcx), %xmm3 vmovdqu 16(%rcx), %xmm4 vpxor %xmm5, %xmm5, %xmm5 vpinsrd $1, (%rdx), %xmm5, %xmm5 vpinsrq $1, 4(%rdx), %xmm5, %xmm5 jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx$17 Ljade_stream_chacha_chacha20_ietf_amd64_avx$18: vmovdqu %xmm2, %xmm6 vmovdqu %xmm3, %xmm7 vmovdqu %xmm4, %xmm8 vmovdqu %xmm5, %xmm9 vmovdqu %xmm2, %xmm10 vmovdqu %xmm3, %xmm11 vmovdqu %xmm4, %xmm12 vmovdqu %xmm5, %xmm13 vpaddd glob_data + 32(%rip), %xmm13, %xmm13 movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx$19: vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm0, %xmm9, %xmm9 vpshufb %xmm0, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm14 vpsrld $20, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $12, %xmm11, %xmm14 vpsrld $20, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm1, %xmm9, %xmm9 vpshufb %xmm1, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm14 vpsrld $25, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $7, %xmm11, %xmm14 vpsrld $25, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpshufd $57, %xmm7, %xmm7 vpshufd $78, %xmm8, %xmm8 vpshufd $-109, %xmm9, %xmm9 vpshufd $57, %xmm11, %xmm11 vpshufd $78, %xmm12, %xmm12 vpshufd $-109, %xmm13, %xmm13 vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm0, %xmm9, %xmm9 vpshufb %xmm0, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm14 vpsrld $20, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $12, %xmm11, %xmm14 vpsrld $20, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm1, %xmm9, %xmm9 vpshufb %xmm1, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm14 vpsrld $25, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $7, %xmm11, %xmm14 vpsrld $25, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpshufd $-109, %xmm7, %xmm7 vpshufd $78, %xmm8, %xmm8 vpshufd $57, %xmm9, %xmm9 vpshufd $-109, %xmm11, %xmm11 vpshufd $78, %xmm12, %xmm12 vpshufd $57, %xmm13, %xmm13 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$19 vpaddd %xmm2, %xmm6, %xmm6 vpaddd %xmm3, %xmm7, %xmm7 vpaddd %xmm4, %xmm8, %xmm8 vpaddd %xmm5, %xmm9, %xmm9 vpaddd %xmm2, %xmm10, %xmm10 vpaddd %xmm3, %xmm11, %xmm11 vpaddd %xmm4, %xmm12, %xmm12 vpaddd %xmm5, %xmm13, %xmm13 vpaddd glob_data + 32(%rip), %xmm13, %xmm13 vmovdqu %xmm6, (%rdi) vmovdqu %xmm7, 16(%rdi) vmovdqu %xmm8, 32(%rdi) vmovdqu %xmm9, 48(%rdi) vmovdqu %xmm10, 64(%rdi) vmovdqu %xmm11, 80(%rdi) vmovdqu %xmm12, 96(%rdi) vmovdqu %xmm13, 112(%rdi) addq $128, %rdi addq $-128, %rsi vpaddd glob_data + 16(%rip), %xmm5, %xmm5 Ljade_stream_chacha_chacha20_ietf_amd64_avx$17: cmpq $128, %rsi jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx$18 cmpq $64, %rsi jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$3 vmovdqu %xmm2, %xmm6 vmovdqu %xmm3, %xmm7 vmovdqu %xmm4, %xmm8 vmovdqu %xmm5, %xmm9 movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx$16: vpaddd %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm9, %xmm9 vpshufb %xmm0, %xmm9, %xmm9 vpaddd %xmm9, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm10 vpsrld $20, %xmm7, %xmm7 vpxor %xmm10, %xmm7, %xmm7 vpaddd %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm9, %xmm9 vpshufb %xmm1, %xmm9, %xmm9 vpaddd %xmm9, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm10 vpsrld $25, %xmm7, %xmm7 vpxor %xmm10, %xmm7, %xmm7 vpshufd $57, %xmm7, %xmm7 vpshufd $78, %xmm8, %xmm8 vpshufd $-109, %xmm9, %xmm9 vpaddd %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm9, %xmm9 vpshufb %xmm0, %xmm9, %xmm9 vpaddd %xmm9, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm10 vpsrld $20, %xmm7, %xmm7 vpxor %xmm10, %xmm7, %xmm7 vpaddd %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm9, %xmm9 vpshufb %xmm1, %xmm9, %xmm9 vpaddd %xmm9, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm10 vpsrld $25, %xmm7, %xmm7 vpxor %xmm10, %xmm7, %xmm7 vpshufd $-109, %xmm7, %xmm7 vpshufd $78, %xmm8, %xmm8 vpshufd $57, %xmm9, %xmm9 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$16 vpaddd %xmm2, %xmm6, %xmm6 vpaddd %xmm3, %xmm7, %xmm2 vpaddd %xmm4, %xmm8, %xmm0 vpaddd %xmm5, %xmm9, %xmm1 cmpq $32, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$15 vmovdqu %xmm6, (%rdi) vmovdqu %xmm2, 16(%rdi) addq $32, %rdi addq $-32, %rsi vmovdqu %xmm0, %xmm6 vmovdqu %xmm1, %xmm2 Ljade_stream_chacha_chacha20_ietf_amd64_avx$15: cmpq $16, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$14 vmovdqu %xmm6, (%rdi) addq $16, %rdi addq $-16, %rsi vmovdqu %xmm2, %xmm6 Ljade_stream_chacha_chacha20_ietf_amd64_avx$14: vpextrq $0, %xmm6, %rax cmpq $8, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$11 movq %rax, (%rdi) addq $8, %rdi addq $-8, %rsi vpextrq $1, %xmm6, %rax Ljade_stream_chacha_chacha20_ietf_amd64_avx$13: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx$11 Ljade_stream_chacha_chacha20_ietf_amd64_avx$12: movb %al, %cl movb %cl, (%rdi) shrq $8, %rax incq %rdi addq $-1, %rsi Ljade_stream_chacha_chacha20_ietf_amd64_avx$11: cmpq $0, %rsi jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$12 jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx$2 Ljade_stream_chacha_chacha20_ietf_amd64_avx$3: vmovdqu %xmm2, %xmm6 vmovdqu %xmm3, %xmm7 vmovdqu %xmm4, %xmm8 vmovdqu %xmm5, %xmm9 vmovdqu %xmm2, %xmm10 vmovdqu %xmm3, %xmm11 vmovdqu %xmm4, %xmm12 vmovdqu %xmm5, %xmm13 vpaddd glob_data + 32(%rip), %xmm13, %xmm13 movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx$10: vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm0, %xmm9, %xmm9 vpshufb %xmm0, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm14 vpsrld $20, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $12, %xmm11, %xmm14 vpsrld $20, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm1, %xmm9, %xmm9 vpshufb %xmm1, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm14 vpsrld $25, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $7, %xmm11, %xmm14 vpsrld $25, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpshufd $57, %xmm7, %xmm7 vpshufd $78, %xmm8, %xmm8 vpshufd $-109, %xmm9, %xmm9 vpshufd $57, %xmm11, %xmm11 vpshufd $78, %xmm12, %xmm12 vpshufd $-109, %xmm13, %xmm13 vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm0, %xmm9, %xmm9 vpshufb %xmm0, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm14 vpsrld $20, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $12, %xmm11, %xmm14 vpsrld $20, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm1, %xmm9, %xmm9 vpshufb %xmm1, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm14 vpsrld $25, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $7, %xmm11, %xmm14 vpsrld $25, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpshufd $-109, %xmm7, %xmm7 vpshufd $78, %xmm8, %xmm8 vpshufd $57, %xmm9, %xmm9 vpshufd $-109, %xmm11, %xmm11 vpshufd $78, %xmm12, %xmm12 vpshufd $57, %xmm13, %xmm13 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$10 vpaddd %xmm2, %xmm6, %xmm0 vpaddd %xmm3, %xmm7, %xmm1 vpaddd %xmm4, %xmm8, %xmm6 vpaddd %xmm5, %xmm9, %xmm7 vpaddd %xmm2, %xmm10, %xmm9 vpaddd %xmm3, %xmm11, %xmm8 vpaddd %xmm4, %xmm12, %xmm2 vpaddd %xmm5, %xmm13, %xmm3 vpaddd glob_data + 32(%rip), %xmm3, %xmm3 vmovdqu %xmm0, (%rdi) vmovdqu %xmm1, 16(%rdi) vmovdqu %xmm6, 32(%rdi) vmovdqu %xmm7, 48(%rdi) addq $64, %rdi addq $-64, %rsi cmpq $32, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$9 vmovdqu %xmm9, (%rdi) vmovdqu %xmm8, 16(%rdi) addq $32, %rdi addq $-32, %rsi vmovdqu %xmm2, %xmm9 vmovdqu %xmm3, %xmm8 Ljade_stream_chacha_chacha20_ietf_amd64_avx$9: cmpq $16, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$8 vmovdqu %xmm9, (%rdi) addq $16, %rdi addq $-16, %rsi vmovdqu %xmm8, %xmm9 Ljade_stream_chacha_chacha20_ietf_amd64_avx$8: vpextrq $0, %xmm9, %rax cmpq $8, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$5 movq %rax, (%rdi) addq $8, %rdi addq $-8, %rsi vpextrq $1, %xmm9, %rax Ljade_stream_chacha_chacha20_ietf_amd64_avx$7: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx$5 Ljade_stream_chacha_chacha20_ietf_amd64_avx$6: movb %al, %cl movb %cl, (%rdi) shrq $8, %rax incq %rdi addq $-1, %rsi Ljade_stream_chacha_chacha20_ietf_amd64_avx$5: cmpq $0, %rsi jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$6 Ljade_stream_chacha_chacha20_ietf_amd64_avx$4: Ljade_stream_chacha_chacha20_ietf_amd64_avx$2: xorq %rax, %rax movq %r10, %rsp ret _jade_stream_chacha_chacha20_ietf_amd64_avx_xor: jade_stream_chacha_chacha20_ietf_amd64_avx_xor: movq %rsp, %r10 leaq -592(%rsp), %rsp andq $-16, %rsp cmpq $129, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$1 vmovdqu glob_data + 64(%rip), %xmm0 vmovdqu glob_data + 48(%rip), %xmm1 vmovdqu %xmm0, (%rsp) vmovdqu %xmm1, 16(%rsp) vmovdqu glob_data + 112(%rip), %xmm0 vmovdqu glob_data + 128(%rip), %xmm1 vmovdqu glob_data + 144(%rip), %xmm2 vmovdqu glob_data + 160(%rip), %xmm3 vpbroadcastd (%r8), %xmm4 vpbroadcastd 4(%r8), %xmm5 vpbroadcastd 8(%r8), %xmm6 vpbroadcastd 12(%r8), %xmm7 vpbroadcastd 16(%r8), %xmm8 vpbroadcastd 20(%r8), %xmm9 vpbroadcastd 24(%r8), %xmm10 vpbroadcastd 28(%r8), %xmm11 vmovdqu glob_data + 96(%rip), %xmm12 vpbroadcastd (%rcx), %xmm13 vpbroadcastd 4(%rcx), %xmm14 vpbroadcastd 8(%rcx), %xmm15 vmovdqu %xmm0, 336(%rsp) vmovdqu %xmm1, 352(%rsp) vmovdqu %xmm2, 368(%rsp) vmovdqu %xmm3, 384(%rsp) vmovdqu %xmm4, 400(%rsp) vmovdqu %xmm5, 416(%rsp) vmovdqu %xmm6, 432(%rsp) vmovdqu %xmm7, 448(%rsp) vmovdqu %xmm8, 464(%rsp) vmovdqu %xmm9, 480(%rsp) vmovdqu %xmm10, 496(%rsp) vmovdqu %xmm11, 512(%rsp) vmovdqu %xmm12, 528(%rsp) vmovdqu %xmm13, 544(%rsp) vmovdqu %xmm14, 560(%rsp) vmovdqu %xmm15, 576(%rsp) jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$29 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$30: vmovdqu 336(%rsp), %xmm0 vmovdqu 352(%rsp), %xmm1 vmovdqu 368(%rsp), %xmm2 vmovdqu 384(%rsp), %xmm3 vmovdqu 400(%rsp), %xmm4 vmovdqu 416(%rsp), %xmm5 vmovdqu 432(%rsp), %xmm6 vmovdqu 448(%rsp), %xmm7 vmovdqu 464(%rsp), %xmm8 vmovdqu 480(%rsp), %xmm9 vmovdqu 496(%rsp), %xmm10 vmovdqu 512(%rsp), %xmm11 vmovdqu 528(%rsp), %xmm12 vmovdqu 544(%rsp), %xmm13 vmovdqu 560(%rsp), %xmm14 vmovdqu 576(%rsp), %xmm15 vmovdqu %xmm15, 32(%rsp) movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$31: vpaddd %xmm4, %xmm0, %xmm0 vpxor %xmm0, %xmm12, %xmm12 vpshufb (%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm8, %xmm8 vpxor %xmm8, %xmm4, %xmm4 vpslld $12, %xmm4, %xmm15 vpsrld $20, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 vpaddd %xmm4, %xmm0, %xmm0 vpxor %xmm0, %xmm12, %xmm12 vpshufb 16(%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm8, %xmm8 vpxor %xmm8, %xmm4, %xmm4 vpslld $7, %xmm4, %xmm15 vpsrld $25, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 vpaddd %xmm5, %xmm1, %xmm1 vpxor %xmm1, %xmm13, %xmm13 vpshufb (%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm9, %xmm9 vpxor %xmm9, %xmm5, %xmm5 vpslld $12, %xmm5, %xmm15 vpsrld $20, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vpaddd %xmm5, %xmm1, %xmm1 vpxor %xmm1, %xmm13, %xmm13 vpshufb 16(%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm9, %xmm9 vpxor %xmm9, %xmm5, %xmm5 vpslld $7, %xmm5, %xmm15 vpsrld $25, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vpaddd %xmm6, %xmm2, %xmm2 vpxor %xmm2, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm6, %xmm6 vpslld $12, %xmm6, %xmm15 vpsrld $20, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vpaddd %xmm6, %xmm2, %xmm2 vpxor %xmm2, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm6, %xmm6 vpslld $7, %xmm6, %xmm15 vpsrld $25, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vmovdqu %xmm14, 48(%rsp) vmovdqu 32(%rsp), %xmm14 vpaddd %xmm7, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm11, %xmm11 vpxor %xmm11, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm15 vpsrld $20, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vpaddd %xmm7, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm11, %xmm11 vpxor %xmm11, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm15 vpsrld $25, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vmovdqu %xmm14, 64(%rsp) vmovdqu 48(%rsp), %xmm14 vmovdqu %xmm14, 48(%rsp) vmovdqu 64(%rsp), %xmm14 vpaddd %xmm5, %xmm0, %xmm0 vpxor %xmm0, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm5, %xmm5 vpslld $12, %xmm5, %xmm15 vpsrld $20, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vpaddd %xmm5, %xmm0, %xmm0 vpxor %xmm0, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm5, %xmm5 vpslld $7, %xmm5, %xmm15 vpsrld $25, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vmovdqu %xmm14, 32(%rsp) vmovdqu 48(%rsp), %xmm14 vpaddd %xmm6, %xmm1, %xmm1 vpxor %xmm1, %xmm12, %xmm12 vpshufb (%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm11, %xmm11 vpxor %xmm11, %xmm6, %xmm6 vpslld $12, %xmm6, %xmm15 vpsrld $20, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vpaddd %xmm6, %xmm1, %xmm1 vpxor %xmm1, %xmm12, %xmm12 vpshufb 16(%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm11, %xmm11 vpxor %xmm11, %xmm6, %xmm6 vpslld $7, %xmm6, %xmm15 vpsrld $25, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vpaddd %xmm7, %xmm2, %xmm2 vpxor %xmm2, %xmm13, %xmm13 vpshufb (%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm15 vpsrld $20, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vpaddd %xmm7, %xmm2, %xmm2 vpxor %xmm2, %xmm13, %xmm13 vpshufb 16(%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm15 vpsrld $25, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vpaddd %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm9, %xmm9 vpxor %xmm9, %xmm4, %xmm4 vpslld $12, %xmm4, %xmm15 vpsrld $20, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 vpaddd %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm9, %xmm9 vpxor %xmm9, %xmm4, %xmm4 vpslld $7, %xmm4, %xmm15 vpsrld $25, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$31 vmovdqu 32(%rsp), %xmm15 vpaddd 336(%rsp), %xmm0, %xmm0 vpaddd 352(%rsp), %xmm1, %xmm1 vpaddd 368(%rsp), %xmm2, %xmm2 vpaddd 384(%rsp), %xmm3, %xmm3 vpaddd 400(%rsp), %xmm4, %xmm4 vpaddd 416(%rsp), %xmm5, %xmm5 vpaddd 432(%rsp), %xmm6, %xmm6 vpaddd 448(%rsp), %xmm7, %xmm7 vpaddd 464(%rsp), %xmm8, %xmm8 vpaddd 480(%rsp), %xmm9, %xmm9 vpaddd 496(%rsp), %xmm10, %xmm10 vpaddd 512(%rsp), %xmm11, %xmm11 vpaddd 528(%rsp), %xmm12, %xmm12 vpaddd 544(%rsp), %xmm13, %xmm13 vpaddd 560(%rsp), %xmm14, %xmm14 vpaddd 576(%rsp), %xmm15, %xmm15 vmovdqu %xmm8, 80(%rsp) vmovdqu %xmm9, 96(%rsp) vmovdqu %xmm10, 112(%rsp) vmovdqu %xmm11, 128(%rsp) vmovdqu %xmm12, 144(%rsp) vmovdqu %xmm13, 160(%rsp) vmovdqu %xmm14, 176(%rsp) vmovdqu %xmm15, 192(%rsp) vpunpckldq %xmm1, %xmm0, %xmm8 vpunpckhdq %xmm1, %xmm0, %xmm0 vpunpckldq %xmm3, %xmm2, %xmm1 vpunpckhdq %xmm3, %xmm2, %xmm2 vpunpckldq %xmm5, %xmm4, %xmm3 vpunpckhdq %xmm5, %xmm4, %xmm4 vpunpckldq %xmm7, %xmm6, %xmm5 vpunpckhdq %xmm7, %xmm6, %xmm6 vpunpcklqdq %xmm1, %xmm8, %xmm7 vpunpcklqdq %xmm5, %xmm3, %xmm9 vpunpckhqdq %xmm1, %xmm8, %xmm1 vpunpckhqdq %xmm5, %xmm3, %xmm3 vpunpcklqdq %xmm2, %xmm0, %xmm5 vpunpcklqdq %xmm6, %xmm4, %xmm8 vpunpckhqdq %xmm2, %xmm0, %xmm0 vpunpckhqdq %xmm6, %xmm4, %xmm2 vpxor (%rsi), %xmm7, %xmm4 vpxor 16(%rsi), %xmm9, %xmm6 vpxor 64(%rsi), %xmm1, %xmm1 vpxor 80(%rsi), %xmm3, %xmm3 vpxor 128(%rsi), %xmm5, %xmm5 vpxor 144(%rsi), %xmm8, %xmm7 vpxor 192(%rsi), %xmm0, %xmm0 vpxor 208(%rsi), %xmm2, %xmm2 vmovdqu %xmm4, (%rdi) vmovdqu %xmm6, 16(%rdi) vmovdqu %xmm1, 64(%rdi) vmovdqu %xmm3, 80(%rdi) vmovdqu %xmm5, 128(%rdi) vmovdqu %xmm7, 144(%rdi) vmovdqu %xmm0, 192(%rdi) vmovdqu %xmm2, 208(%rdi) vmovdqu 80(%rsp), %xmm0 vmovdqu 112(%rsp), %xmm1 vmovdqu 144(%rsp), %xmm2 vmovdqu 176(%rsp), %xmm3 vpunpckldq 96(%rsp), %xmm0, %xmm4 vpunpckhdq 96(%rsp), %xmm0, %xmm0 vpunpckldq 128(%rsp), %xmm1, %xmm5 vpunpckhdq 128(%rsp), %xmm1, %xmm1 vpunpckldq 160(%rsp), %xmm2, %xmm6 vpunpckhdq 160(%rsp), %xmm2, %xmm2 vpunpckldq 192(%rsp), %xmm3, %xmm7 vpunpckhdq 192(%rsp), %xmm3, %xmm3 vpunpcklqdq %xmm5, %xmm4, %xmm8 vpunpcklqdq %xmm7, %xmm6, %xmm9 vpunpckhqdq %xmm5, %xmm4, %xmm4 vpunpckhqdq %xmm7, %xmm6, %xmm5 vpunpcklqdq %xmm1, %xmm0, %xmm6 vpunpcklqdq %xmm3, %xmm2, %xmm7 vpunpckhqdq %xmm1, %xmm0, %xmm0 vpunpckhqdq %xmm3, %xmm2, %xmm1 vpxor 32(%rsi), %xmm8, %xmm2 vpxor 48(%rsi), %xmm9, %xmm3 vpxor 96(%rsi), %xmm4, %xmm4 vpxor 112(%rsi), %xmm5, %xmm5 vpxor 160(%rsi), %xmm6, %xmm6 vpxor 176(%rsi), %xmm7, %xmm7 vpxor 224(%rsi), %xmm0, %xmm0 vpxor 240(%rsi), %xmm1, %xmm1 vmovdqu %xmm2, 32(%rdi) vmovdqu %xmm3, 48(%rdi) vmovdqu %xmm4, 96(%rdi) vmovdqu %xmm5, 112(%rdi) vmovdqu %xmm6, 160(%rdi) vmovdqu %xmm7, 176(%rdi) vmovdqu %xmm0, 224(%rdi) vmovdqu %xmm1, 240(%rdi) addq $256, %rdi addq $256, %rsi addq $-256, %rdx vmovdqu glob_data + 0(%rip), %xmm0 vpaddd 528(%rsp), %xmm0, %xmm0 vmovdqu %xmm0, 528(%rsp) Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$29: cmpq $256, %rdx jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$30 cmpq $0, %rdx jbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$2 vmovdqu 336(%rsp), %xmm0 vmovdqu 352(%rsp), %xmm1 vmovdqu 368(%rsp), %xmm2 vmovdqu 384(%rsp), %xmm3 vmovdqu 400(%rsp), %xmm4 vmovdqu 416(%rsp), %xmm5 vmovdqu 432(%rsp), %xmm6 vmovdqu 448(%rsp), %xmm7 vmovdqu 464(%rsp), %xmm8 vmovdqu 480(%rsp), %xmm9 vmovdqu 496(%rsp), %xmm10 vmovdqu 512(%rsp), %xmm11 vmovdqu 528(%rsp), %xmm12 vmovdqu 544(%rsp), %xmm13 vmovdqu 560(%rsp), %xmm14 vmovdqu 576(%rsp), %xmm15 vmovdqu %xmm15, 32(%rsp) movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$28: vpaddd %xmm4, %xmm0, %xmm0 vpxor %xmm0, %xmm12, %xmm12 vpshufb (%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm8, %xmm8 vpxor %xmm8, %xmm4, %xmm4 vpslld $12, %xmm4, %xmm15 vpsrld $20, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 vpaddd %xmm4, %xmm0, %xmm0 vpxor %xmm0, %xmm12, %xmm12 vpshufb 16(%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm8, %xmm8 vpxor %xmm8, %xmm4, %xmm4 vpslld $7, %xmm4, %xmm15 vpsrld $25, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 vpaddd %xmm5, %xmm1, %xmm1 vpxor %xmm1, %xmm13, %xmm13 vpshufb (%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm9, %xmm9 vpxor %xmm9, %xmm5, %xmm5 vpslld $12, %xmm5, %xmm15 vpsrld $20, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vpaddd %xmm5, %xmm1, %xmm1 vpxor %xmm1, %xmm13, %xmm13 vpshufb 16(%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm9, %xmm9 vpxor %xmm9, %xmm5, %xmm5 vpslld $7, %xmm5, %xmm15 vpsrld $25, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vpaddd %xmm6, %xmm2, %xmm2 vpxor %xmm2, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm6, %xmm6 vpslld $12, %xmm6, %xmm15 vpsrld $20, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vpaddd %xmm6, %xmm2, %xmm2 vpxor %xmm2, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm6, %xmm6 vpslld $7, %xmm6, %xmm15 vpsrld $25, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vmovdqu %xmm14, 48(%rsp) vmovdqu 32(%rsp), %xmm14 vpaddd %xmm7, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm11, %xmm11 vpxor %xmm11, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm15 vpsrld $20, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vpaddd %xmm7, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm11, %xmm11 vpxor %xmm11, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm15 vpsrld $25, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vmovdqu %xmm14, 64(%rsp) vmovdqu 48(%rsp), %xmm14 vmovdqu %xmm14, 48(%rsp) vmovdqu 64(%rsp), %xmm14 vpaddd %xmm5, %xmm0, %xmm0 vpxor %xmm0, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm5, %xmm5 vpslld $12, %xmm5, %xmm15 vpsrld $20, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vpaddd %xmm5, %xmm0, %xmm0 vpxor %xmm0, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm10, %xmm10 vpxor %xmm10, %xmm5, %xmm5 vpslld $7, %xmm5, %xmm15 vpsrld $25, %xmm5, %xmm5 vpxor %xmm15, %xmm5, %xmm5 vmovdqu %xmm14, 32(%rsp) vmovdqu 48(%rsp), %xmm14 vpaddd %xmm6, %xmm1, %xmm1 vpxor %xmm1, %xmm12, %xmm12 vpshufb (%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm11, %xmm11 vpxor %xmm11, %xmm6, %xmm6 vpslld $12, %xmm6, %xmm15 vpsrld $20, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vpaddd %xmm6, %xmm1, %xmm1 vpxor %xmm1, %xmm12, %xmm12 vpshufb 16(%rsp), %xmm12, %xmm12 vpaddd %xmm12, %xmm11, %xmm11 vpxor %xmm11, %xmm6, %xmm6 vpslld $7, %xmm6, %xmm15 vpsrld $25, %xmm6, %xmm6 vpxor %xmm15, %xmm6, %xmm6 vpaddd %xmm7, %xmm2, %xmm2 vpxor %xmm2, %xmm13, %xmm13 vpshufb (%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm15 vpsrld $20, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vpaddd %xmm7, %xmm2, %xmm2 vpxor %xmm2, %xmm13, %xmm13 vpshufb 16(%rsp), %xmm13, %xmm13 vpaddd %xmm13, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm15 vpsrld $25, %xmm7, %xmm7 vpxor %xmm15, %xmm7, %xmm7 vpaddd %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb (%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm9, %xmm9 vpxor %xmm9, %xmm4, %xmm4 vpslld $12, %xmm4, %xmm15 vpsrld $20, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 vpaddd %xmm4, %xmm3, %xmm3 vpxor %xmm3, %xmm14, %xmm14 vpshufb 16(%rsp), %xmm14, %xmm14 vpaddd %xmm14, %xmm9, %xmm9 vpxor %xmm9, %xmm4, %xmm4 vpslld $7, %xmm4, %xmm15 vpsrld $25, %xmm4, %xmm4 vpxor %xmm15, %xmm4, %xmm4 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$28 vmovdqu 32(%rsp), %xmm15 vpaddd 336(%rsp), %xmm0, %xmm0 vpaddd 352(%rsp), %xmm1, %xmm1 vpaddd 368(%rsp), %xmm2, %xmm2 vpaddd 384(%rsp), %xmm3, %xmm3 vpaddd 400(%rsp), %xmm4, %xmm4 vpaddd 416(%rsp), %xmm5, %xmm5 vpaddd 432(%rsp), %xmm6, %xmm6 vpaddd 448(%rsp), %xmm7, %xmm7 vpaddd 464(%rsp), %xmm8, %xmm8 vpaddd 480(%rsp), %xmm9, %xmm9 vpaddd 496(%rsp), %xmm10, %xmm10 vpaddd 512(%rsp), %xmm11, %xmm11 vpaddd 528(%rsp), %xmm12, %xmm12 vpaddd 544(%rsp), %xmm13, %xmm13 vpaddd 560(%rsp), %xmm14, %xmm14 vpaddd 576(%rsp), %xmm15, %xmm15 vmovdqu %xmm8, 80(%rsp) vmovdqu %xmm9, 96(%rsp) vmovdqu %xmm10, 112(%rsp) vmovdqu %xmm11, 128(%rsp) vmovdqu %xmm12, 144(%rsp) vmovdqu %xmm13, 160(%rsp) vmovdqu %xmm14, 176(%rsp) vmovdqu %xmm15, 192(%rsp) vpunpckldq %xmm1, %xmm0, %xmm8 vpunpckhdq %xmm1, %xmm0, %xmm0 vpunpckldq %xmm3, %xmm2, %xmm1 vpunpckhdq %xmm3, %xmm2, %xmm2 vpunpckldq %xmm5, %xmm4, %xmm3 vpunpckhdq %xmm5, %xmm4, %xmm4 vpunpckldq %xmm7, %xmm6, %xmm5 vpunpckhdq %xmm7, %xmm6, %xmm6 vpunpcklqdq %xmm1, %xmm8, %xmm7 vpunpcklqdq %xmm5, %xmm3, %xmm9 vpunpckhqdq %xmm1, %xmm8, %xmm1 vpunpckhqdq %xmm5, %xmm3, %xmm3 vpunpcklqdq %xmm2, %xmm0, %xmm5 vpunpcklqdq %xmm6, %xmm4, %xmm8 vpunpckhqdq %xmm2, %xmm0, %xmm0 vpunpckhqdq %xmm6, %xmm4, %xmm2 vmovdqu %xmm7, 208(%rsp) vmovdqu %xmm9, 224(%rsp) vmovdqu %xmm1, 240(%rsp) vmovdqu %xmm3, 256(%rsp) vmovdqu %xmm5, 272(%rsp) vmovdqu %xmm8, 288(%rsp) vmovdqu %xmm0, 304(%rsp) vmovdqu %xmm2, 320(%rsp) vmovdqu 80(%rsp), %xmm0 vmovdqu 112(%rsp), %xmm1 vmovdqu 144(%rsp), %xmm2 vmovdqu 176(%rsp), %xmm3 vpunpckldq 96(%rsp), %xmm0, %xmm4 vpunpckhdq 96(%rsp), %xmm0, %xmm0 vpunpckldq 128(%rsp), %xmm1, %xmm5 vpunpckhdq 128(%rsp), %xmm1, %xmm1 vpunpckldq 160(%rsp), %xmm2, %xmm6 vpunpckhdq 160(%rsp), %xmm2, %xmm2 vpunpckldq 192(%rsp), %xmm3, %xmm7 vpunpckhdq 192(%rsp), %xmm3, %xmm3 vpunpcklqdq %xmm5, %xmm4, %xmm8 vpunpcklqdq %xmm7, %xmm6, %xmm9 vpunpckhqdq %xmm5, %xmm4, %xmm4 vpunpckhqdq %xmm7, %xmm6, %xmm5 vpunpcklqdq %xmm1, %xmm0, %xmm6 vpunpcklqdq %xmm3, %xmm2, %xmm7 vpunpckhqdq %xmm1, %xmm0, %xmm0 vpunpckhqdq %xmm3, %xmm2, %xmm1 vmovdqu 208(%rsp), %xmm2 vmovdqu 224(%rsp), %xmm12 vmovdqu %xmm8, %xmm11 vmovdqu %xmm9, %xmm10 vmovdqu 240(%rsp), %xmm9 vmovdqu 256(%rsp), %xmm8 vmovdqu %xmm5, %xmm3 cmpq $128, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$27 vpxor (%rsi), %xmm2, %xmm2 vmovdqu %xmm2, (%rdi) vpxor 16(%rsi), %xmm12, %xmm2 vmovdqu %xmm2, 16(%rdi) vpxor 32(%rsi), %xmm11, %xmm2 vmovdqu %xmm2, 32(%rdi) vpxor 48(%rsi), %xmm10, %xmm2 vmovdqu %xmm2, 48(%rdi) vpxor 64(%rsi), %xmm9, %xmm2 vmovdqu %xmm2, 64(%rdi) vpxor 80(%rsi), %xmm8, %xmm2 vmovdqu %xmm2, 80(%rdi) vpxor 96(%rsi), %xmm4, %xmm2 vmovdqu %xmm2, 96(%rdi) vpxor 112(%rsi), %xmm3, %xmm2 vmovdqu %xmm2, 112(%rdi) addq $128, %rdi addq $128, %rsi addq $-128, %rdx vmovdqu 272(%rsp), %xmm2 vmovdqu 288(%rsp), %xmm12 vmovdqu %xmm6, %xmm11 vmovdqu %xmm7, %xmm10 vmovdqu 304(%rsp), %xmm9 vmovdqu 320(%rsp), %xmm8 vmovdqu %xmm0, %xmm4 vmovdqu %xmm1, %xmm3 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$27: cmpq $64, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$26 vpxor (%rsi), %xmm2, %xmm0 vmovdqu %xmm0, (%rdi) vpxor 16(%rsi), %xmm12, %xmm0 vmovdqu %xmm0, 16(%rdi) vpxor 32(%rsi), %xmm11, %xmm0 vmovdqu %xmm0, 32(%rdi) vpxor 48(%rsi), %xmm10, %xmm0 vmovdqu %xmm0, 48(%rdi) addq $64, %rdi addq $64, %rsi addq $-64, %rdx vmovdqu %xmm9, %xmm2 vmovdqu %xmm8, %xmm12 vmovdqu %xmm4, %xmm11 vmovdqu %xmm3, %xmm10 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$26: cmpq $32, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$25 vpxor (%rsi), %xmm2, %xmm0 vmovdqu %xmm0, (%rdi) vpxor 16(%rsi), %xmm12, %xmm0 vmovdqu %xmm0, 16(%rdi) addq $32, %rdi addq $32, %rsi addq $-32, %rdx vmovdqu %xmm11, %xmm2 vmovdqu %xmm10, %xmm12 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$25: cmpq $16, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$24 vpxor (%rsi), %xmm2, %xmm0 vmovdqu %xmm0, (%rdi) addq $16, %rdi addq $16, %rsi addq $-16, %rdx vmovdqu %xmm12, %xmm2 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$24: vpextrq $0, %xmm2, %rax cmpq $8, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$21 xorq (%rsi), %rax movq %rax, (%rdi) addq $8, %rdi addq $8, %rsi addq $-8, %rdx vpextrq $1, %xmm2, %rax Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$23: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$21 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$22: movb %al, %cl xorb (%rsi), %cl movb %cl, (%rdi) shrq $8, %rax incq %rdi incq %rsi addq $-1, %rdx Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$21: cmpq $0, %rdx jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$22 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$20: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$2 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$1: vmovdqu glob_data + 64(%rip), %xmm0 vmovdqu glob_data + 48(%rip), %xmm1 vmovdqu glob_data + 208(%rip), %xmm2 vmovdqu (%r8), %xmm3 vmovdqu 16(%r8), %xmm4 vpxor %xmm5, %xmm5, %xmm5 vpinsrd $1, (%rcx), %xmm5, %xmm5 vpinsrq $1, 4(%rcx), %xmm5, %xmm5 jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$17 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$18: vmovdqu %xmm2, %xmm6 vmovdqu %xmm3, %xmm7 vmovdqu %xmm4, %xmm8 vmovdqu %xmm5, %xmm9 vmovdqu %xmm2, %xmm10 vmovdqu %xmm3, %xmm11 vmovdqu %xmm4, %xmm12 vmovdqu %xmm5, %xmm13 vpaddd glob_data + 32(%rip), %xmm13, %xmm13 movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$19: vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm0, %xmm9, %xmm9 vpshufb %xmm0, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm14 vpsrld $20, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $12, %xmm11, %xmm14 vpsrld $20, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm1, %xmm9, %xmm9 vpshufb %xmm1, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm14 vpsrld $25, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $7, %xmm11, %xmm14 vpsrld $25, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpshufd $57, %xmm7, %xmm7 vpshufd $78, %xmm8, %xmm8 vpshufd $-109, %xmm9, %xmm9 vpshufd $57, %xmm11, %xmm11 vpshufd $78, %xmm12, %xmm12 vpshufd $-109, %xmm13, %xmm13 vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm0, %xmm9, %xmm9 vpshufb %xmm0, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm14 vpsrld $20, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $12, %xmm11, %xmm14 vpsrld $20, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm1, %xmm9, %xmm9 vpshufb %xmm1, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm14 vpsrld $25, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $7, %xmm11, %xmm14 vpsrld $25, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpshufd $-109, %xmm7, %xmm7 vpshufd $78, %xmm8, %xmm8 vpshufd $57, %xmm9, %xmm9 vpshufd $-109, %xmm11, %xmm11 vpshufd $78, %xmm12, %xmm12 vpshufd $57, %xmm13, %xmm13 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$19 vpaddd %xmm2, %xmm6, %xmm6 vpaddd %xmm3, %xmm7, %xmm7 vpaddd %xmm4, %xmm8, %xmm8 vpaddd %xmm5, %xmm9, %xmm9 vpaddd %xmm2, %xmm10, %xmm10 vpaddd %xmm3, %xmm11, %xmm11 vpaddd %xmm4, %xmm12, %xmm12 vpaddd %xmm5, %xmm13, %xmm13 vpaddd glob_data + 32(%rip), %xmm13, %xmm13 vpxor (%rsi), %xmm6, %xmm6 vmovdqu %xmm6, (%rdi) vpxor 16(%rsi), %xmm7, %xmm6 vmovdqu %xmm6, 16(%rdi) vpxor 32(%rsi), %xmm8, %xmm6 vmovdqu %xmm6, 32(%rdi) vpxor 48(%rsi), %xmm9, %xmm6 vmovdqu %xmm6, 48(%rdi) vpxor 64(%rsi), %xmm10, %xmm6 vmovdqu %xmm6, 64(%rdi) vpxor 80(%rsi), %xmm11, %xmm6 vmovdqu %xmm6, 80(%rdi) vpxor 96(%rsi), %xmm12, %xmm6 vmovdqu %xmm6, 96(%rdi) vpxor 112(%rsi), %xmm13, %xmm6 vmovdqu %xmm6, 112(%rdi) addq $128, %rdi addq $128, %rsi addq $-128, %rdx vpaddd glob_data + 16(%rip), %xmm5, %xmm5 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$17: cmpq $128, %rdx jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$18 cmpq $64, %rdx jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$3 vmovdqu %xmm2, %xmm6 vmovdqu %xmm3, %xmm7 vmovdqu %xmm4, %xmm8 vmovdqu %xmm5, %xmm9 movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$16: vpaddd %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm9, %xmm9 vpshufb %xmm0, %xmm9, %xmm9 vpaddd %xmm9, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm10 vpsrld $20, %xmm7, %xmm7 vpxor %xmm10, %xmm7, %xmm7 vpaddd %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm9, %xmm9 vpshufb %xmm1, %xmm9, %xmm9 vpaddd %xmm9, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm10 vpsrld $25, %xmm7, %xmm7 vpxor %xmm10, %xmm7, %xmm7 vpshufd $57, %xmm7, %xmm7 vpshufd $78, %xmm8, %xmm8 vpshufd $-109, %xmm9, %xmm9 vpaddd %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm9, %xmm9 vpshufb %xmm0, %xmm9, %xmm9 vpaddd %xmm9, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm10 vpsrld $20, %xmm7, %xmm7 vpxor %xmm10, %xmm7, %xmm7 vpaddd %xmm7, %xmm6, %xmm6 vpxor %xmm6, %xmm9, %xmm9 vpshufb %xmm1, %xmm9, %xmm9 vpaddd %xmm9, %xmm8, %xmm8 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm10 vpsrld $25, %xmm7, %xmm7 vpxor %xmm10, %xmm7, %xmm7 vpshufd $-109, %xmm7, %xmm7 vpshufd $78, %xmm8, %xmm8 vpshufd $57, %xmm9, %xmm9 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$16 vpaddd %xmm2, %xmm6, %xmm2 vpaddd %xmm3, %xmm7, %xmm3 vpaddd %xmm4, %xmm8, %xmm0 vpaddd %xmm5, %xmm9, %xmm1 cmpq $32, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$15 vpxor (%rsi), %xmm2, %xmm2 vmovdqu %xmm2, (%rdi) vpxor 16(%rsi), %xmm3, %xmm2 vmovdqu %xmm2, 16(%rdi) addq $32, %rdi addq $32, %rsi addq $-32, %rdx vmovdqu %xmm0, %xmm2 vmovdqu %xmm1, %xmm3 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$15: cmpq $16, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$14 vpxor (%rsi), %xmm2, %xmm0 vmovdqu %xmm0, (%rdi) addq $16, %rdi addq $16, %rsi addq $-16, %rdx vmovdqu %xmm3, %xmm2 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$14: vpextrq $0, %xmm2, %rax cmpq $8, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$11 xorq (%rsi), %rax movq %rax, (%rdi) addq $8, %rdi addq $8, %rsi addq $-8, %rdx vpextrq $1, %xmm2, %rax Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$13: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$11 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$12: movb %al, %cl xorb (%rsi), %cl movb %cl, (%rdi) shrq $8, %rax incq %rdi incq %rsi addq $-1, %rdx Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$11: cmpq $0, %rdx jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$12 jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$2 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$3: vmovdqu %xmm2, %xmm6 vmovdqu %xmm3, %xmm7 vmovdqu %xmm4, %xmm8 vmovdqu %xmm5, %xmm9 vmovdqu %xmm2, %xmm10 vmovdqu %xmm3, %xmm11 vmovdqu %xmm4, %xmm12 vmovdqu %xmm5, %xmm13 vpaddd glob_data + 32(%rip), %xmm13, %xmm13 movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$10: vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm0, %xmm9, %xmm9 vpshufb %xmm0, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm14 vpsrld $20, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $12, %xmm11, %xmm14 vpsrld $20, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm1, %xmm9, %xmm9 vpshufb %xmm1, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm14 vpsrld $25, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $7, %xmm11, %xmm14 vpsrld $25, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpshufd $57, %xmm7, %xmm7 vpshufd $78, %xmm8, %xmm8 vpshufd $-109, %xmm9, %xmm9 vpshufd $57, %xmm11, %xmm11 vpshufd $78, %xmm12, %xmm12 vpshufd $-109, %xmm13, %xmm13 vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm0, %xmm9, %xmm9 vpshufb %xmm0, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $12, %xmm7, %xmm14 vpsrld $20, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $12, %xmm11, %xmm14 vpsrld $20, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpaddd %xmm7, %xmm6, %xmm6 vpaddd %xmm11, %xmm10, %xmm10 vpxor %xmm6, %xmm9, %xmm9 vpxor %xmm10, %xmm13, %xmm13 vpshufb %xmm1, %xmm9, %xmm9 vpshufb %xmm1, %xmm13, %xmm13 vpaddd %xmm9, %xmm8, %xmm8 vpaddd %xmm13, %xmm12, %xmm12 vpxor %xmm8, %xmm7, %xmm7 vpslld $7, %xmm7, %xmm14 vpsrld $25, %xmm7, %xmm7 vpxor %xmm12, %xmm11, %xmm11 vpxor %xmm14, %xmm7, %xmm7 vpslld $7, %xmm11, %xmm14 vpsrld $25, %xmm11, %xmm11 vpxor %xmm14, %xmm11, %xmm11 vpshufd $-109, %xmm7, %xmm7 vpshufd $78, %xmm8, %xmm8 vpshufd $57, %xmm9, %xmm9 vpshufd $-109, %xmm11, %xmm11 vpshufd $78, %xmm12, %xmm12 vpshufd $57, %xmm13, %xmm13 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$10 vpaddd %xmm2, %xmm6, %xmm0 vpaddd %xmm3, %xmm7, %xmm1 vpaddd %xmm4, %xmm8, %xmm6 vpaddd %xmm5, %xmm9, %xmm7 vpaddd %xmm2, %xmm10, %xmm9 vpaddd %xmm3, %xmm11, %xmm8 vpaddd %xmm4, %xmm12, %xmm2 vpaddd %xmm5, %xmm13, %xmm3 vpaddd glob_data + 32(%rip), %xmm3, %xmm3 vpxor (%rsi), %xmm0, %xmm0 vmovdqu %xmm0, (%rdi) vpxor 16(%rsi), %xmm1, %xmm0 vmovdqu %xmm0, 16(%rdi) vpxor 32(%rsi), %xmm6, %xmm0 vmovdqu %xmm0, 32(%rdi) vpxor 48(%rsi), %xmm7, %xmm0 vmovdqu %xmm0, 48(%rdi) addq $64, %rdi addq $64, %rsi addq $-64, %rdx cmpq $32, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$9 vpxor (%rsi), %xmm9, %xmm0 vmovdqu %xmm0, (%rdi) vpxor 16(%rsi), %xmm8, %xmm0 vmovdqu %xmm0, 16(%rdi) addq $32, %rdi addq $32, %rsi addq $-32, %rdx vmovdqu %xmm2, %xmm9 vmovdqu %xmm3, %xmm8 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$9: cmpq $16, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$8 vpxor (%rsi), %xmm9, %xmm0 vmovdqu %xmm0, (%rdi) addq $16, %rdi addq $16, %rsi addq $-16, %rdx vmovdqu %xmm8, %xmm9 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$8: vpextrq $0, %xmm9, %rax cmpq $8, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$5 xorq (%rsi), %rax movq %rax, (%rdi) addq $8, %rdi addq $8, %rsi addq $-8, %rdx vpextrq $1, %xmm9, %rax Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$7: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$5 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$6: movb %al, %cl xorb (%rsi), %cl movb %cl, (%rdi) shrq $8, %rax incq %rdi incq %rsi addq $-1, %rdx Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$5: cmpq $0, %rdx jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$6 Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$4: Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$2: xorq %rax, %rax movq %r10, %rsp ret .data .p2align 5 _glob_data: glob_data: .byte 4 .byte 0 .byte 0 .byte 0 .byte 4 .byte 0 .byte 0 .byte 0 .byte 4 .byte 0 .byte 0 .byte 0 .byte 4 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 1 .byte 2 .byte 7 .byte 4 .byte 5 .byte 6 .byte 11 .byte 8 .byte 9 .byte 10 .byte 15 .byte 12 .byte 13 .byte 14 .byte 2 .byte 3 .byte 0 .byte 1 .byte 6 .byte 7 .byte 4 .byte 5 .byte 10 .byte 11 .byte 8 .byte 9 .byte 14 .byte 15 .byte 12 .byte 13 .byte 4 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 4 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 0 .byte 0 .byte 101 .byte 120 .byte 112 .byte 97 .byte 101 .byte 120 .byte 112 .byte 97 .byte 101 .byte 120 .byte 112 .byte 97 .byte 101 .byte 120 .byte 112 .byte 97 .byte 110 .byte 100 .byte 32 .byte 51 .byte 110 .byte 100 .byte 32 .byte 51 .byte 110 .byte 100 .byte 32 .byte 51 .byte 110 .byte 100 .byte 32 .byte 51 .byte 50 .byte 45 .byte 98 .byte 121 .byte 50 .byte 45 .byte 98 .byte 121 .byte 50 .byte 45 .byte 98 .byte 121 .byte 50 .byte 45 .byte 98 .byte 121 .byte 116 .byte 101 .byte 32 .byte 107 .byte 116 .byte 101 .byte 32 .byte 107 .byte 116 .byte 101 .byte 32 .byte 107 .byte 116 .byte 101 .byte 32 .byte 107 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 101 .byte 120 .byte 112 .byte 97 .byte 110 .byte 100 .byte 32 .byte 51 .byte 50 .byte 45 .byte 98 .byte 121 .byte 116 .byte 101 .byte 32 .byte 107
verdict-x509/verdict
128,503
deps/libcrux/sys/libjade/jazz/x25519_mulx.s
.att_syntax .text .p2align 5 .globl _jade_scalarmult_curve25519_amd64_mulx_base .globl jade_scalarmult_curve25519_amd64_mulx_base .globl _jade_scalarmult_curve25519_amd64_mulx .globl jade_scalarmult_curve25519_amd64_mulx _jade_scalarmult_curve25519_amd64_mulx_base: jade_scalarmult_curve25519_amd64_mulx_base: movq %rsp, %rax leaq -408(%rsp), %rsp andq $-8, %rsp movq %rax, 400(%rsp) movq %rbx, 352(%rsp) movq %rbp, 360(%rsp) movq %r12, 368(%rsp) movq %r13, 376(%rsp) movq %r14, 384(%rsp) movq %r15, 392(%rsp) movq %rdi, (%rsp) movq (%rsi), %rax movq %rax, 24(%rsp) movq 8(%rsi), %rax movq %rax, 32(%rsp) movq 16(%rsi), %rax movq %rax, 40(%rsp) movq 24(%rsi), %rax movq %rax, 48(%rsp) andb $-8, 24(%rsp) andb $127, 55(%rsp) orb $64, 55(%rsp) movq $9, %rcx movq $0, %rdx movq $0, %r9 movq $0, %r10 xorq %r11, %r11 movq $1, 56(%rsp) movq $0, %rax movq %rcx, 88(%rsp) movq %rdx, 96(%rsp) movq %r9, 104(%rsp) movq %r10, 112(%rsp) movq $1, 120(%rsp) movq %r11, 64(%rsp) movq %r11, %r8 movq %r11, 128(%rsp) movq %r11, 72(%rsp) movq %r11, %rsi movq %r11, 136(%rsp) movq %r11, 80(%rsp) movq %r11, %rdi movq %r11, 144(%rsp) movq %rcx, 152(%rsp) movq %rdx, 160(%rsp) movq %r9, 168(%rsp) movq %r10, 176(%rsp) movq $255, %rcx movq $0, 8(%rsp) Ljade_scalarmult_curve25519_amd64_mulx_base$9: addq $-1, %rcx movq %rcx, 16(%rsp) movq %rcx, %rdx shrq $3, %rdx movzbq 24(%rsp,%rdx), %rdx andq $7, %rcx shrq %cl, %rdx andq $1, %rdx movq 8(%rsp), %r9 xorq %rdx, %r9 xorq %rcx, %rcx subq %r9, %rcx movq 120(%rsp), %r9 movq 128(%rsp), %r10 movq 136(%rsp), %r11 movq 144(%rsp), %rbx movq %rax, %rbp movq %r8, %r12 movq %rsi, %r13 movq %rdi, %r14 xorq %r9, %rbp xorq %r10, %r12 xorq %r11, %r13 xorq %rbx, %r14 andq %rcx, %rbp andq %rcx, %r12 andq %rcx, %r13 andq %rcx, %r14 xorq %rbp, %rax xorq %rbp, %r9 movq %r9, 120(%rsp) xorq %r12, %r8 xorq %r12, %r10 movq %r10, 128(%rsp) xorq %r13, %rsi xorq %r13, %r11 movq %r11, 136(%rsp) xorq %r14, %rdi xorq %r14, %rbx movq %rbx, 144(%rsp) movq 88(%rsp), %r11 movq 96(%rsp), %rbx movq 104(%rsp), %r9 movq 112(%rsp), %r10 movq 56(%rsp), %rbp movq %r11, %r12 xorq %rbp, %r12 andq %rcx, %r12 xorq %r12, %rbp xorq %r12, %r11 movq %rbp, 56(%rsp) movq %r11, 88(%rsp) movq 64(%rsp), %r11 movq %rbx, %rbp xorq %r11, %rbp andq %rcx, %rbp xorq %rbp, %r11 xorq %rbp, %rbx movq %r11, 64(%rsp) movq %rbx, 96(%rsp) movq 72(%rsp), %r11 movq %r9, %rbx xorq %r11, %rbx andq %rcx, %rbx xorq %rbx, %r11 xorq %rbx, %r9 movq %r11, 72(%rsp) movq %r9, 104(%rsp) movq 80(%rsp), %r9 movq %r10, %r11 xorq %r9, %r11 andq %rcx, %r11 xorq %r11, %r9 xorq %r11, %r10 movq %r9, 80(%rsp) movq %r10, 112(%rsp) movq %rdx, 8(%rsp) xorq %rcx, %rcx movq 56(%rsp), %rdx movq 64(%rsp), %r9 movq 72(%rsp), %r10 movq 80(%rsp), %r11 subq %rax, %rdx sbbq %r8, %r9 sbbq %rsi, %r10 sbbq %rdi, %r11 sbbq %rcx, %rcx andq $38, %rcx subq %rcx, %rdx sbbq $0, %r9 sbbq $0, %r10 sbbq $0, %r11 sbbq %rcx, %rcx andq $38, %rcx subq %rcx, %rdx movq %rdx, 184(%rsp) movq %r9, 192(%rsp) movq %r10, 200(%rsp) movq %r11, 208(%rsp) xorq %rcx, %rcx addq 56(%rsp), %rax adcq 64(%rsp), %r8 adcq 72(%rsp), %rsi adcq 80(%rsp), %rdi sbbq %rcx, %rcx andq $38, %rcx addq %rcx, %rax adcq $0, %r8 adcq $0, %rsi adcq $0, %rdi sbbq %rcx, %rcx andq $38, %rcx addq %rcx, %rax movq %rax, 216(%rsp) movq %r8, 224(%rsp) movq %rsi, 232(%rsp) movq %rdi, 240(%rsp) movq 88(%rsp), %rax movq 96(%rsp), %rcx movq 104(%rsp), %rdx movq 112(%rsp), %rsi xorq %rdi, %rdi subq 120(%rsp), %rax sbbq 128(%rsp), %rcx sbbq 136(%rsp), %rdx sbbq 144(%rsp), %rsi sbbq %rdi, %rdi andq $38, %rdi subq %rdi, %rax sbbq $0, %rcx sbbq $0, %rdx sbbq $0, %rsi sbbq %rdi, %rdi andq $38, %rdi subq %rdi, %rax movq %rax, 248(%rsp) movq %rcx, 256(%rsp) movq %rdx, 264(%rsp) movq %rsi, 272(%rsp) movq 88(%rsp), %rax movq 96(%rsp), %rcx movq 104(%rsp), %rdx movq 112(%rsp), %rsi xorq %rdi, %rdi addq 120(%rsp), %rax adcq 128(%rsp), %rcx adcq 136(%rsp), %rdx adcq 144(%rsp), %rsi sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %rax adcq $0, %rcx adcq $0, %rdx adcq $0, %rsi sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %rax movq %rax, 280(%rsp) movq %rcx, 288(%rsp) movq %rdx, 296(%rsp) movq %rsi, 304(%rsp) movq 248(%rsp), %r9 movq 256(%rsp), %r10 movq 264(%rsp), %r11 movq 272(%rsp), %rbx xorq %rax, %rax movq 216(%rsp), %rdx MULXq %r9, %rsi, %rcx MULXq %r10, %r8, %rdi adcxq %r8, %rcx MULXq %r11, %rbp, %r8 adcxq %rbp, %rdi MULXq %rbx, %rdx, %rbp adcxq %rdx, %r8 adcxq %rax, %rbp movq 224(%rsp), %rdx MULXq %r9, %r13, %r12 adoxq %r13, %rcx adcxq %r12, %rdi MULXq %r10, %r13, %r12 adoxq %r13, %rdi adcxq %r12, %r8 MULXq %r11, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %rbp MULXq %rbx, %rdx, %r12 adoxq %rdx, %rbp adcxq %rax, %r12 adoxq %rax, %r12 movq 232(%rsp), %rdx MULXq %r9, %r14, %r13 adoxq %r14, %rdi adcxq %r13, %r8 MULXq %r10, %r14, %r13 adoxq %r14, %r8 adcxq %r13, %rbp MULXq %r11, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rbx, %rdx, %r13 adoxq %rdx, %r12 adcxq %rax, %r13 adoxq %rax, %r13 movq 240(%rsp), %rdx MULXq %r9, %r14, %r9 adoxq %r14, %r8 adcxq %r9, %rbp MULXq %r10, %r10, %r9 adoxq %r10, %rbp adcxq %r9, %r12 MULXq %r11, %r10, %r9 adoxq %r10, %r12 adcxq %r9, %r13 MULXq %rbx, %rdx, %r9 adoxq %rdx, %r13 adcxq %rax, %r9 adoxq %rax, %r9 movq $38, %rdx MULXq %rbp, %r11, %r10 adoxq %r11, %rsi adcxq %r10, %rcx MULXq %r12, %r11, %r10 adoxq %r11, %rcx adcxq %r10, %rdi MULXq %r13, %r11, %r10 adoxq %r11, %rdi adcxq %r10, %r8 MULXq %r9, %r9, %rdx adoxq %r9, %r8 adcxq %rax, %rdx adoxq %rax, %rdx imulq $38, %rdx, %rdx addq %rdx, %rsi adcq %rax, %rcx adcq %rax, %rdi adcq %rax, %r8 sbbq %rax, %rax andq $38, %rax addq %rax, %rsi movq %rsi, 248(%rsp) movq %rcx, 256(%rsp) movq %rdi, 264(%rsp) movq %r8, 272(%rsp) movq 184(%rsp), %r9 movq 192(%rsp), %r10 movq 200(%rsp), %r11 movq 208(%rsp), %rbx xorq %rax, %rax movq 280(%rsp), %rdx MULXq %r9, %rsi, %rcx MULXq %r10, %r8, %rdi adcxq %r8, %rcx MULXq %r11, %rbp, %r8 adcxq %rbp, %rdi MULXq %rbx, %rdx, %rbp adcxq %rdx, %r8 adcxq %rax, %rbp movq 288(%rsp), %rdx MULXq %r9, %r13, %r12 adoxq %r13, %rcx adcxq %r12, %rdi MULXq %r10, %r13, %r12 adoxq %r13, %rdi adcxq %r12, %r8 MULXq %r11, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %rbp MULXq %rbx, %rdx, %r12 adoxq %rdx, %rbp adcxq %rax, %r12 adoxq %rax, %r12 movq 296(%rsp), %rdx MULXq %r9, %r14, %r13 adoxq %r14, %rdi adcxq %r13, %r8 MULXq %r10, %r14, %r13 adoxq %r14, %r8 adcxq %r13, %rbp MULXq %r11, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rbx, %rdx, %r13 adoxq %rdx, %r12 adcxq %rax, %r13 adoxq %rax, %r13 movq 304(%rsp), %rdx MULXq %r9, %r14, %r9 adoxq %r14, %r8 adcxq %r9, %rbp MULXq %r10, %r10, %r9 adoxq %r10, %rbp adcxq %r9, %r12 MULXq %r11, %r10, %r9 adoxq %r10, %r12 adcxq %r9, %r13 MULXq %rbx, %rdx, %r9 adoxq %rdx, %r13 adcxq %rax, %r9 adoxq %rax, %r9 movq $38, %rdx MULXq %rbp, %r11, %r10 adoxq %r11, %rsi adcxq %r10, %rcx MULXq %r12, %r11, %r10 adoxq %r11, %rcx adcxq %r10, %rdi MULXq %r13, %r11, %r10 adoxq %r11, %rdi adcxq %r10, %r8 MULXq %r9, %r9, %rdx adoxq %r9, %r8 adcxq %rax, %rdx adoxq %rax, %rdx imulq $38, %rdx, %rdx addq %rdx, %rsi adcq %rax, %rcx adcq %rax, %rdi adcq %rax, %r8 sbbq %rax, %rax andq $38, %rax addq %rax, %rsi movq %rsi, 280(%rsp) movq %rcx, 288(%rsp) movq %rdi, 296(%rsp) movq %r8, 304(%rsp) movq 216(%rsp), %rdx movq 224(%rsp), %r11 movq 232(%rsp), %r13 movq 240(%rsp), %rbx xorq %rax, %rax MULXq %rdx, %rsi, %rcx MULXq %r11, %r8, %rdi MULXq %r13, %r10, %r9 adcxq %r10, %rdi MULXq %rbx, %rdx, %r10 adcxq %rdx, %r9 movq %r11, %rdx MULXq %r13, %rbp, %r11 adoxq %rbp, %r9 adcxq %r11, %r10 MULXq %rbx, %rbp, %r11 adoxq %rbp, %r10 MULXq %rdx, %r12, %rbp movq %r13, %rdx MULXq %rbx, %r14, %r13 adcxq %r14, %r11 adoxq %rax, %r11 adcxq %rax, %r13 adoxq %rax, %r13 MULXq %rdx, %r15, %r14 movq %rbx, %rdx MULXq %rdx, %rdx, %rbx adcxq %r8, %r8 adoxq %rcx, %r8 adcxq %rdi, %rdi adoxq %r12, %rdi adcxq %r9, %r9 adoxq %rbp, %r9 adcxq %r10, %r10 adoxq %r15, %r10 adcxq %r11, %r11 adoxq %r14, %r11 adcxq %r13, %r13 adoxq %rdx, %r13 adcxq %rax, %rbx adoxq %rax, %rbx movq $38, %rdx MULXq %r10, %r10, %rcx adoxq %r10, %rsi adcxq %rcx, %r8 MULXq %r11, %r10, %rcx adoxq %r10, %r8 adcxq %rcx, %rdi MULXq %r13, %r10, %rcx adoxq %r10, %rdi adcxq %rcx, %r9 MULXq %rbx, %rdx, %rcx adoxq %rdx, %r9 adcxq %rax, %rcx adoxq %rax, %rcx imulq $38, %rcx, %rcx addq %rcx, %rsi adcq %rax, %r8 adcq %rax, %rdi adcq %rax, %r9 sbbq %rax, %rax andq $38, %rax addq %rax, %rsi movq %rsi, 216(%rsp) movq %r8, 224(%rsp) movq %rdi, 232(%rsp) movq %r9, 240(%rsp) movq 184(%rsp), %rdx movq 192(%rsp), %r11 movq 200(%rsp), %r13 movq 208(%rsp), %rbx xorq %r8, %r8 MULXq %rdx, %rax, %r9 MULXq %r11, %rsi, %rcx MULXq %r13, %r10, %rdi adcxq %r10, %rcx MULXq %rbx, %rdx, %r10 adcxq %rdx, %rdi movq %r11, %rdx MULXq %r13, %rbp, %r11 adoxq %rbp, %rdi adcxq %r11, %r10 MULXq %rbx, %rbp, %r11 adoxq %rbp, %r10 MULXq %rdx, %r12, %rbp movq %r13, %rdx MULXq %rbx, %r14, %r13 adcxq %r14, %r11 adoxq %r8, %r11 adcxq %r8, %r13 adoxq %r8, %r13 MULXq %rdx, %r15, %r14 movq %rbx, %rdx MULXq %rdx, %rdx, %rbx adcxq %rsi, %rsi adoxq %r9, %rsi adcxq %rcx, %rcx adoxq %r12, %rcx adcxq %rdi, %rdi adoxq %rbp, %rdi adcxq %r10, %r10 adoxq %r15, %r10 adcxq %r11, %r11 adoxq %r14, %r11 adcxq %r13, %r13 adoxq %rdx, %r13 adcxq %r8, %rbx adoxq %r8, %rbx movq $38, %rdx MULXq %r10, %r10, %r9 adoxq %r10, %rax adcxq %r9, %rsi MULXq %r11, %r10, %r9 adoxq %r10, %rsi adcxq %r9, %rcx MULXq %r13, %r10, %r9 adoxq %r10, %rcx adcxq %r9, %rdi MULXq %rbx, %r9, %rdx adoxq %r9, %rdi adcxq %r8, %rdx adoxq %r8, %rdx imulq $38, %rdx, %rdx addq %rdx, %rax adcq %r8, %rsi adcq %r8, %rcx adcq %r8, %rdi sbbq %r8, %r8 andq $38, %r8 addq %r8, %rax movq 248(%rsp), %rdx movq 256(%rsp), %r8 movq 264(%rsp), %r9 movq 272(%rsp), %r10 xorq %r11, %r11 addq 280(%rsp), %rdx adcq 288(%rsp), %r8 adcq 296(%rsp), %r9 adcq 304(%rsp), %r10 sbbq %r11, %r11 andq $38, %r11 addq %r11, %rdx adcq $0, %r8 adcq $0, %r9 adcq $0, %r10 sbbq %r11, %r11 andq $38, %r11 addq %r11, %rdx movq %rdx, 184(%rsp) movq %r8, 192(%rsp) movq %r9, 200(%rsp) movq %r10, 208(%rsp) movq 248(%rsp), %rdx movq 256(%rsp), %r8 movq 264(%rsp), %r9 movq 272(%rsp), %r10 xorq %r11, %r11 subq 280(%rsp), %rdx sbbq 288(%rsp), %r8 sbbq 296(%rsp), %r9 sbbq 304(%rsp), %r10 sbbq %r11, %r11 andq $38, %r11 subq %r11, %rdx sbbq $0, %r8 sbbq $0, %r9 sbbq $0, %r10 sbbq %r11, %r11 andq $38, %r11 subq %r11, %rdx movq %rdx, 280(%rsp) movq %r8, 288(%rsp) movq %r9, 296(%rsp) movq %r10, 304(%rsp) xorq %rdx, %rdx movq 216(%rsp), %r8 movq 224(%rsp), %r9 movq 232(%rsp), %r10 movq 240(%rsp), %r11 subq %rax, %r8 sbbq %rsi, %r9 sbbq %rcx, %r10 sbbq %rdi, %r11 sbbq %rdx, %rdx andq $38, %rdx subq %rdx, %r8 sbbq $0, %r9 sbbq $0, %r10 sbbq $0, %r11 sbbq %rdx, %rdx andq $38, %rdx subq %rdx, %r8 movq %r8, 248(%rsp) movq %r9, 256(%rsp) movq %r10, 264(%rsp) movq %r11, 272(%rsp) xorq %r8, %r8 movq 216(%rsp), %rdx MULXq %rax, %r10, %r9 MULXq %rsi, %rbx, %r11 adcxq %rbx, %r9 MULXq %rcx, %rbp, %rbx adcxq %rbp, %r11 MULXq %rdi, %rdx, %rbp adcxq %rdx, %rbx adcxq %r8, %rbp movq 224(%rsp), %rdx MULXq %rax, %r13, %r12 adoxq %r13, %r9 adcxq %r12, %r11 MULXq %rsi, %r13, %r12 adoxq %r13, %r11 adcxq %r12, %rbx MULXq %rcx, %r13, %r12 adoxq %r13, %rbx adcxq %r12, %rbp MULXq %rdi, %rdx, %r12 adoxq %rdx, %rbp adcxq %r8, %r12 adoxq %r8, %r12 movq 232(%rsp), %rdx MULXq %rax, %r14, %r13 adoxq %r14, %r11 adcxq %r13, %rbx MULXq %rsi, %r14, %r13 adoxq %r14, %rbx adcxq %r13, %rbp MULXq %rcx, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rdi, %rdx, %r13 adoxq %rdx, %r12 adcxq %r8, %r13 adoxq %r8, %r13 movq 240(%rsp), %rdx MULXq %rax, %r14, %rax adoxq %r14, %rbx adcxq %rax, %rbp MULXq %rsi, %rsi, %rax adoxq %rsi, %rbp adcxq %rax, %r12 MULXq %rcx, %rcx, %rax adoxq %rcx, %r12 adcxq %rax, %r13 MULXq %rdi, %rcx, %rax adoxq %rcx, %r13 adcxq %r8, %rax adoxq %r8, %rax movq $38, %rdx MULXq %rbp, %rsi, %rcx adoxq %rsi, %r10 adcxq %rcx, %r9 MULXq %r12, %rsi, %rcx adoxq %rsi, %r9 adcxq %rcx, %r11 MULXq %r13, %rsi, %rcx adoxq %rsi, %r11 adcxq %rcx, %rbx MULXq %rax, %rcx, %rax adoxq %rcx, %rbx adcxq %r8, %rax adoxq %r8, %rax imulq $38, %rax, %rax addq %rax, %r10 adcq %r8, %r9 adcq %r8, %r11 adcq %r8, %rbx sbbq %r8, %r8 andq $38, %r8 addq %r8, %r10 movq %r10, 56(%rsp) movq %r9, 64(%rsp) movq %r11, 72(%rsp) movq %rbx, 80(%rsp) movq 280(%rsp), %rdx movq 288(%rsp), %r11 movq 296(%rsp), %r13 movq 304(%rsp), %rbx xorq %rax, %rax MULXq %rdx, %rsi, %rcx MULXq %r11, %r8, %rdi MULXq %r13, %r10, %r9 adcxq %r10, %rdi MULXq %rbx, %rdx, %r10 adcxq %rdx, %r9 movq %r11, %rdx MULXq %r13, %rbp, %r11 adoxq %rbp, %r9 adcxq %r11, %r10 MULXq %rbx, %rbp, %r11 adoxq %rbp, %r10 MULXq %rdx, %r12, %rbp movq %r13, %rdx MULXq %rbx, %r14, %r13 adcxq %r14, %r11 adoxq %rax, %r11 adcxq %rax, %r13 adoxq %rax, %r13 MULXq %rdx, %r15, %r14 movq %rbx, %rdx MULXq %rdx, %rdx, %rbx adcxq %r8, %r8 adoxq %rcx, %r8 adcxq %rdi, %rdi adoxq %r12, %rdi adcxq %r9, %r9 adoxq %rbp, %r9 adcxq %r10, %r10 adoxq %r15, %r10 adcxq %r11, %r11 adoxq %r14, %r11 adcxq %r13, %r13 adoxq %rdx, %r13 adcxq %rax, %rbx adoxq %rax, %rbx movq $38, %rdx MULXq %r10, %r10, %rcx adoxq %r10, %rsi adcxq %rcx, %r8 MULXq %r11, %r10, %rcx adoxq %r10, %r8 adcxq %rcx, %rdi MULXq %r13, %r10, %rcx adoxq %r10, %rdi adcxq %rcx, %r9 MULXq %rbx, %rdx, %rcx adoxq %rdx, %r9 adcxq %rax, %rcx adoxq %rax, %rcx imulq $38, %rcx, %rcx addq %rcx, %rsi adcq %rax, %r8 adcq %rax, %rdi adcq %rax, %r9 sbbq %rax, %rax andq $38, %rax addq %rax, %rsi movq %rsi, 280(%rsp) movq %r8, 288(%rsp) movq %rdi, 296(%rsp) movq %r9, 304(%rsp) movq $121665, %rdx MULXq 248(%rsp), %rcx, %rax MULXq 256(%rsp), %rdi, %rsi addq %rdi, %rax MULXq 264(%rsp), %r8, %rdi adcq %r8, %rsi MULXq 272(%rsp), %r9, %r8 adcq %r9, %rdi adcq $0, %r8 imulq $38, %r8, %r8 addq %r8, %rcx adcq $0, %rax adcq $0, %rsi adcq $0, %rdi sbbq %rdx, %rdx andq $38, %rdx addq %rdx, %rcx movq %rcx, 312(%rsp) movq %rax, 320(%rsp) movq %rsi, 328(%rsp) movq %rdi, 336(%rsp) movq 184(%rsp), %rdx movq 192(%rsp), %r11 movq 200(%rsp), %r13 movq 208(%rsp), %rbx xorq %rax, %rax MULXq %rdx, %rsi, %rcx MULXq %r11, %r8, %rdi MULXq %r13, %r10, %r9 adcxq %r10, %rdi MULXq %rbx, %rdx, %r10 adcxq %rdx, %r9 movq %r11, %rdx MULXq %r13, %rbp, %r11 adoxq %rbp, %r9 adcxq %r11, %r10 MULXq %rbx, %rbp, %r11 adoxq %rbp, %r10 MULXq %rdx, %r12, %rbp movq %r13, %rdx MULXq %rbx, %r14, %r13 adcxq %r14, %r11 adoxq %rax, %r11 adcxq %rax, %r13 adoxq %rax, %r13 MULXq %rdx, %r15, %r14 movq %rbx, %rdx MULXq %rdx, %rdx, %rbx adcxq %r8, %r8 adoxq %rcx, %r8 adcxq %rdi, %rdi adoxq %r12, %rdi adcxq %r9, %r9 adoxq %rbp, %r9 adcxq %r10, %r10 adoxq %r15, %r10 adcxq %r11, %r11 adoxq %r14, %r11 adcxq %r13, %r13 adoxq %rdx, %r13 adcxq %rax, %rbx adoxq %rax, %rbx movq $38, %rdx MULXq %r10, %r10, %rcx adoxq %r10, %rsi adcxq %rcx, %r8 MULXq %r11, %r10, %rcx adoxq %r10, %r8 adcxq %rcx, %rdi MULXq %r13, %r10, %rcx adoxq %r10, %rdi adcxq %rcx, %r9 MULXq %rbx, %rdx, %rcx adoxq %rdx, %r9 adcxq %rax, %rcx adoxq %rax, %rcx imulq $38, %rcx, %rcx addq %rcx, %rsi adcq %rax, %r8 adcq %rax, %rdi adcq %rax, %r9 sbbq %rax, %rax andq $38, %rax addq %rax, %rsi movq %rsi, 88(%rsp) movq %r8, 96(%rsp) movq %rdi, 104(%rsp) movq %r9, 112(%rsp) movq 216(%rsp), %rax movq 224(%rsp), %rcx movq 232(%rsp), %rdx movq 240(%rsp), %rsi xorq %rdi, %rdi addq 312(%rsp), %rax adcq 320(%rsp), %rcx adcq 328(%rsp), %rdx adcq 336(%rsp), %rsi sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %rax adcq $0, %rcx adcq $0, %rdx adcq $0, %rsi sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %rax movq %rax, 312(%rsp) movq %rcx, 320(%rsp) movq %rdx, 328(%rsp) movq %rsi, 336(%rsp) movq 280(%rsp), %r9 movq 288(%rsp), %r10 movq 296(%rsp), %r11 movq 304(%rsp), %rbx xorq %rax, %rax movq 152(%rsp), %rdx MULXq %r9, %rsi, %rcx MULXq %r10, %r8, %rdi adcxq %r8, %rcx MULXq %r11, %rbp, %r8 adcxq %rbp, %rdi MULXq %rbx, %rdx, %rbp adcxq %rdx, %r8 adcxq %rax, %rbp movq 160(%rsp), %rdx MULXq %r9, %r13, %r12 adoxq %r13, %rcx adcxq %r12, %rdi MULXq %r10, %r13, %r12 adoxq %r13, %rdi adcxq %r12, %r8 MULXq %r11, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %rbp MULXq %rbx, %rdx, %r12 adoxq %rdx, %rbp adcxq %rax, %r12 adoxq %rax, %r12 movq 168(%rsp), %rdx MULXq %r9, %r14, %r13 adoxq %r14, %rdi adcxq %r13, %r8 MULXq %r10, %r14, %r13 adoxq %r14, %r8 adcxq %r13, %rbp MULXq %r11, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rbx, %rdx, %r13 adoxq %rdx, %r12 adcxq %rax, %r13 adoxq %rax, %r13 movq 176(%rsp), %rdx MULXq %r9, %r14, %r9 adoxq %r14, %r8 adcxq %r9, %rbp MULXq %r10, %r10, %r9 adoxq %r10, %rbp adcxq %r9, %r12 MULXq %r11, %r10, %r9 adoxq %r10, %r12 adcxq %r9, %r13 MULXq %rbx, %rdx, %r9 adoxq %rdx, %r13 adcxq %rax, %r9 adoxq %rax, %r9 movq $38, %rdx MULXq %rbp, %r11, %r10 adoxq %r11, %rsi adcxq %r10, %rcx MULXq %r12, %r11, %r10 adoxq %r11, %rcx adcxq %r10, %rdi MULXq %r13, %r11, %r10 adoxq %r11, %rdi adcxq %r10, %r8 MULXq %r9, %r9, %rdx adoxq %r9, %r8 adcxq %rax, %rdx adoxq %rax, %rdx imulq $38, %rdx, %rdx addq %rdx, %rsi adcq %rax, %rcx adcq %rax, %rdi adcq %rax, %r8 sbbq %rax, %rax andq $38, %rax addq %rax, %rsi movq %rsi, 120(%rsp) movq %rcx, 128(%rsp) movq %rdi, 136(%rsp) movq %r8, 144(%rsp) movq 312(%rsp), %r9 movq 320(%rsp), %r10 movq 328(%rsp), %r11 movq 336(%rsp), %rbx xorq %rcx, %rcx movq 248(%rsp), %rdx MULXq %r9, %rax, %r8 MULXq %r10, %rdi, %rsi adcxq %rdi, %r8 MULXq %r11, %rbp, %rdi adcxq %rbp, %rsi MULXq %rbx, %rdx, %rbp adcxq %rdx, %rdi adcxq %rcx, %rbp movq 256(%rsp), %rdx MULXq %r9, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %rsi MULXq %r10, %r13, %r12 adoxq %r13, %rsi adcxq %r12, %rdi MULXq %r11, %r13, %r12 adoxq %r13, %rdi adcxq %r12, %rbp MULXq %rbx, %rdx, %r12 adoxq %rdx, %rbp adcxq %rcx, %r12 adoxq %rcx, %r12 movq 264(%rsp), %rdx MULXq %r9, %r14, %r13 adoxq %r14, %rsi adcxq %r13, %rdi MULXq %r10, %r14, %r13 adoxq %r14, %rdi adcxq %r13, %rbp MULXq %r11, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rbx, %rdx, %r13 adoxq %rdx, %r12 adcxq %rcx, %r13 adoxq %rcx, %r13 movq 272(%rsp), %rdx MULXq %r9, %r14, %r9 adoxq %r14, %rdi adcxq %r9, %rbp MULXq %r10, %r10, %r9 adoxq %r10, %rbp adcxq %r9, %r12 MULXq %r11, %r10, %r9 adoxq %r10, %r12 adcxq %r9, %r13 MULXq %rbx, %rdx, %r9 adoxq %rdx, %r13 adcxq %rcx, %r9 adoxq %rcx, %r9 movq $38, %rdx MULXq %rbp, %r11, %r10 adoxq %r11, %rax adcxq %r10, %r8 MULXq %r12, %r11, %r10 adoxq %r11, %r8 adcxq %r10, %rsi MULXq %r13, %r11, %r10 adoxq %r11, %rsi adcxq %r10, %rdi MULXq %r9, %r9, %rdx adoxq %r9, %rdi adcxq %rcx, %rdx adoxq %rcx, %rdx imulq $38, %rdx, %rdx addq %rdx, %rax adcq %rcx, %r8 adcq %rcx, %rsi adcq %rcx, %rdi sbbq %rcx, %rcx andq $38, %rcx addq %rcx, %rax movq 16(%rsp), %rcx cmpq $0, %rcx jnbe Ljade_scalarmult_curve25519_amd64_mulx_base$9 movq %rax, 120(%rsp) movq %r8, 128(%rsp) movq %rsi, 136(%rsp) movq %rdi, 144(%rsp) xorq %r9, %r9 movq %rax, %rdx MULXq %rdx, %r10, %rbx MULXq %r8, %r11, %rcx MULXq %rsi, %rbp, %rax adcxq %rbp, %rcx MULXq %rdi, %rdx, %rbp adcxq %rdx, %rax movq %r8, %rdx MULXq %rsi, %r12, %r8 adoxq %r12, %rax adcxq %r8, %rbp MULXq %rdi, %r12, %r8 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rsi, %rdx MULXq %rdi, %r14, %rsi adcxq %r14, %r8 adoxq %r9, %r8 adcxq %r9, %rsi adoxq %r9, %rsi MULXq %rdx, %r15, %r14 movq %rdi, %rdx MULXq %rdx, %rdx, %rdi adcxq %r11, %r11 adoxq %rbx, %r11 adcxq %rcx, %rcx adoxq %r13, %rcx adcxq %rax, %rax adoxq %r12, %rax adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r8, %r8 adoxq %r14, %r8 adcxq %rsi, %rsi adoxq %rdx, %rsi adcxq %r9, %rdi adoxq %r9, %rdi movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %r10 adcxq %rbx, %r11 MULXq %r8, %rbx, %r8 adoxq %rbx, %r11 adcxq %r8, %rcx MULXq %rsi, %r8, %rsi adoxq %r8, %rcx adcxq %rsi, %rax MULXq %rdi, %rsi, %rdx adoxq %rsi, %rax adcxq %r9, %rdx adoxq %r9, %rdx imulq $38, %rdx, %rdx addq %rdx, %r10 adcq %r9, %r11 adcq %r9, %rcx adcq %r9, %rax sbbq %r9, %r9 andq $38, %r9 addq %r9, %r10 movq %r10, 88(%rsp) movq %r11, 96(%rsp) movq %rcx, 104(%rsp) movq %rax, 112(%rsp) xorq %rsi, %rsi movq %r10, %rdx MULXq %rdx, %rdi, %rbx MULXq %r11, %r10, %r9 MULXq %rcx, %rbp, %r8 adcxq %rbp, %r9 MULXq %rax, %rdx, %rbp adcxq %rdx, %r8 movq %r11, %rdx MULXq %rcx, %r12, %r11 adoxq %r12, %r8 adcxq %r11, %rbp MULXq %rax, %r12, %r11 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rcx, %rdx MULXq %rax, %r14, %rcx adcxq %r14, %r11 adoxq %rsi, %r11 adcxq %rsi, %rcx adoxq %rsi, %rcx MULXq %rdx, %r15, %r14 movq %rax, %rdx MULXq %rdx, %rdx, %rax adcxq %r10, %r10 adoxq %rbx, %r10 adcxq %r9, %r9 adoxq %r13, %r9 adcxq %r8, %r8 adoxq %r12, %r8 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r11, %r11 adoxq %r14, %r11 adcxq %rcx, %rcx adoxq %rdx, %rcx adcxq %rsi, %rax adoxq %rsi, %rax movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rdi adcxq %rbx, %r10 MULXq %r11, %rbx, %r11 adoxq %rbx, %r10 adcxq %r11, %r9 MULXq %rcx, %r11, %rcx adoxq %r11, %r9 adcxq %rcx, %r8 MULXq %rax, %rcx, %rax adoxq %rcx, %r8 adcxq %rsi, %rax adoxq %rsi, %rax imulq $38, %rax, %rax addq %rax, %rdi adcq %rsi, %r10 adcq %rsi, %r9 adcq %rsi, %r8 sbbq %rsi, %rsi andq $38, %rsi addq %rsi, %rdi xorq %r11, %r11 movq %rdi, %rdx MULXq %rdx, %rax, %rbx MULXq %r10, %rsi, %rcx MULXq %r9, %rbp, %rdi adcxq %rbp, %rcx MULXq %r8, %rdx, %rbp adcxq %rdx, %rdi movq %r10, %rdx MULXq %r9, %r12, %r10 adoxq %r12, %rdi adcxq %r10, %rbp MULXq %r8, %r12, %r10 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r9, %rdx MULXq %r8, %r14, %r9 adcxq %r14, %r10 adoxq %r11, %r10 adcxq %r11, %r9 adoxq %r11, %r9 MULXq %rdx, %r15, %r14 movq %r8, %rdx MULXq %rdx, %rdx, %r8 adcxq %rsi, %rsi adoxq %rbx, %rsi adcxq %rcx, %rcx adoxq %r13, %rcx adcxq %rdi, %rdi adoxq %r12, %rdi adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r10, %r10 adoxq %r14, %r10 adcxq %r9, %r9 adoxq %rdx, %r9 adcxq %r11, %r8 adoxq %r11, %r8 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rax adcxq %rbx, %rsi MULXq %r10, %rbx, %r10 adoxq %rbx, %rsi adcxq %r10, %rcx MULXq %r9, %r10, %r9 adoxq %r10, %rcx adcxq %r9, %rdi MULXq %r8, %r8, %rdx adoxq %r8, %rdi adcxq %r11, %rdx adoxq %r11, %rdx imulq $38, %rdx, %rdx addq %rdx, %rax adcq %r11, %rsi adcq %r11, %rcx adcq %r11, %rdi sbbq %r11, %r11 andq $38, %r11 addq %r11, %rax xorq %r11, %r11 movq 120(%rsp), %rdx MULXq %rax, %rbx, %r8 MULXq %rsi, %r10, %r9 adcxq %r10, %r8 MULXq %rcx, %rbp, %r10 adcxq %rbp, %r9 MULXq %rdi, %rdx, %rbp adcxq %rdx, %r10 adcxq %r11, %rbp movq 128(%rsp), %rdx MULXq %rax, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %r9 MULXq %rsi, %r13, %r12 adoxq %r13, %r9 adcxq %r12, %r10 MULXq %rcx, %r13, %r12 adoxq %r13, %r10 adcxq %r12, %rbp MULXq %rdi, %rdx, %r12 adoxq %rdx, %rbp adcxq %r11, %r12 adoxq %r11, %r12 movq 136(%rsp), %rdx MULXq %rax, %r14, %r13 adoxq %r14, %r9 adcxq %r13, %r10 MULXq %rsi, %r14, %r13 adoxq %r14, %r10 adcxq %r13, %rbp MULXq %rcx, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rdi, %rdx, %r13 adoxq %rdx, %r12 adcxq %r11, %r13 adoxq %r11, %r13 movq 144(%rsp), %rdx MULXq %rax, %r14, %rax adoxq %r14, %r10 adcxq %rax, %rbp MULXq %rsi, %rsi, %rax adoxq %rsi, %rbp adcxq %rax, %r12 MULXq %rcx, %rcx, %rax adoxq %rcx, %r12 adcxq %rax, %r13 MULXq %rdi, %rcx, %rax adoxq %rcx, %r13 adcxq %r11, %rax adoxq %r11, %rax movq $38, %rdx MULXq %rbp, %rsi, %rcx adoxq %rsi, %rbx adcxq %rcx, %r8 MULXq %r12, %rsi, %rcx adoxq %rsi, %r8 adcxq %rcx, %r9 MULXq %r13, %rsi, %rcx adoxq %rsi, %r9 adcxq %rcx, %r10 MULXq %rax, %rcx, %rax adoxq %rcx, %r10 adcxq %r11, %rax adoxq %r11, %rax imulq $38, %rax, %rax addq %rax, %rbx adcq %r11, %r8 adcq %r11, %r9 adcq %r11, %r10 sbbq %r11, %r11 andq $38, %r11 addq %r11, %rbx movq %rbx, 120(%rsp) movq %r8, 128(%rsp) movq %r9, 136(%rsp) movq %r10, 144(%rsp) xorq %rcx, %rcx movq 88(%rsp), %rdx MULXq %rbx, %rsi, %r11 MULXq %r8, %rax, %rbp adcxq %rax, %r11 MULXq %r9, %rdi, %rax adcxq %rdi, %rbp MULXq %r10, %rdx, %rdi adcxq %rdx, %rax adcxq %rcx, %rdi movq 96(%rsp), %rdx MULXq %rbx, %r13, %r12 adoxq %r13, %r11 adcxq %r12, %rbp MULXq %r8, %r13, %r12 adoxq %r13, %rbp adcxq %r12, %rax MULXq %r9, %r13, %r12 adoxq %r13, %rax adcxq %r12, %rdi MULXq %r10, %rdx, %r12 adoxq %rdx, %rdi adcxq %rcx, %r12 adoxq %rcx, %r12 movq 104(%rsp), %rdx MULXq %rbx, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %rax MULXq %r8, %r14, %r13 adoxq %r14, %rax adcxq %r13, %rdi MULXq %r9, %r14, %r13 adoxq %r14, %rdi adcxq %r13, %r12 MULXq %r10, %rdx, %r13 adoxq %rdx, %r12 adcxq %rcx, %r13 adoxq %rcx, %r13 movq 112(%rsp), %rdx MULXq %rbx, %r14, %rbx adoxq %r14, %rax adcxq %rbx, %rdi MULXq %r8, %rbx, %r8 adoxq %rbx, %rdi adcxq %r8, %r12 MULXq %r9, %r9, %r8 adoxq %r9, %r12 adcxq %r8, %r13 MULXq %r10, %rdx, %r8 adoxq %rdx, %r13 adcxq %rcx, %r8 adoxq %rcx, %r8 movq $38, %rdx MULXq %rdi, %r9, %rdi adoxq %r9, %rsi adcxq %rdi, %r11 MULXq %r12, %r9, %rdi adoxq %r9, %r11 adcxq %rdi, %rbp MULXq %r13, %r9, %rdi adoxq %r9, %rbp adcxq %rdi, %rax MULXq %r8, %rdi, %rdx adoxq %rdi, %rax adcxq %rcx, %rdx adoxq %rcx, %rdx imulq $38, %rdx, %rdx addq %rdx, %rsi adcq %rcx, %r11 adcq %rcx, %rbp adcq %rcx, %rax sbbq %rcx, %rcx andq $38, %rcx addq %rcx, %rsi movq %rsi, 88(%rsp) movq %r11, 96(%rsp) movq %rbp, 104(%rsp) movq %rax, 112(%rsp) xorq %r8, %r8 movq %rsi, %rdx MULXq %rdx, %rcx, %r10 MULXq %r11, %rdi, %rsi MULXq %rbp, %rbx, %r9 adcxq %rbx, %rsi MULXq %rax, %rdx, %rbx adcxq %rdx, %r9 movq %r11, %rdx MULXq %rbp, %r12, %r11 adoxq %r12, %r9 adcxq %r11, %rbx MULXq %rax, %r12, %r11 adoxq %r12, %rbx MULXq %rdx, %r13, %r12 movq %rbp, %rdx MULXq %rax, %r14, %rbp adcxq %r14, %r11 adoxq %r8, %r11 adcxq %r8, %rbp adoxq %r8, %rbp MULXq %rdx, %r15, %r14 movq %rax, %rdx MULXq %rdx, %rdx, %rax adcxq %rdi, %rdi adoxq %r10, %rdi adcxq %rsi, %rsi adoxq %r13, %rsi adcxq %r9, %r9 adoxq %r12, %r9 adcxq %rbx, %rbx adoxq %r15, %rbx adcxq %r11, %r11 adoxq %r14, %r11 adcxq %rbp, %rbp adoxq %rdx, %rbp adcxq %r8, %rax adoxq %r8, %rax movq $38, %rdx MULXq %rbx, %rbx, %r10 adoxq %rbx, %rcx adcxq %r10, %rdi MULXq %r11, %r11, %r10 adoxq %r11, %rdi adcxq %r10, %rsi MULXq %rbp, %r11, %r10 adoxq %r11, %rsi adcxq %r10, %r9 MULXq %rax, %rdx, %rax adoxq %rdx, %r9 adcxq %r8, %rax adoxq %r8, %rax imulq $38, %rax, %rax addq %rax, %rcx adcq %r8, %rdi adcq %r8, %rsi adcq %r8, %r9 sbbq %r8, %r8 andq $38, %r8 addq %r8, %rcx xorq %rax, %rax movq 120(%rsp), %rdx MULXq %rcx, %rbx, %r10 MULXq %rdi, %r8, %r11 adcxq %r8, %r10 MULXq %rsi, %rbp, %r8 adcxq %rbp, %r11 MULXq %r9, %rdx, %rbp adcxq %rdx, %r8 adcxq %rax, %rbp movq 128(%rsp), %rdx MULXq %rcx, %r13, %r12 adoxq %r13, %r10 adcxq %r12, %r11 MULXq %rdi, %r13, %r12 adoxq %r13, %r11 adcxq %r12, %r8 MULXq %rsi, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %rbp MULXq %r9, %rdx, %r12 adoxq %rdx, %rbp adcxq %rax, %r12 adoxq %rax, %r12 movq 136(%rsp), %rdx MULXq %rcx, %r14, %r13 adoxq %r14, %r11 adcxq %r13, %r8 MULXq %rdi, %r14, %r13 adoxq %r14, %r8 adcxq %r13, %rbp MULXq %rsi, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %r9, %rdx, %r13 adoxq %rdx, %r12 adcxq %rax, %r13 adoxq %rax, %r13 movq 144(%rsp), %rdx MULXq %rcx, %r14, %rcx adoxq %r14, %r8 adcxq %rcx, %rbp MULXq %rdi, %rdi, %rcx adoxq %rdi, %rbp adcxq %rcx, %r12 MULXq %rsi, %rsi, %rcx adoxq %rsi, %r12 adcxq %rcx, %r13 MULXq %r9, %rdx, %rcx adoxq %rdx, %r13 adcxq %rax, %rcx adoxq %rax, %rcx movq $38, %rdx MULXq %rbp, %rdi, %rsi adoxq %rdi, %rbx adcxq %rsi, %r10 MULXq %r12, %rdi, %rsi adoxq %rdi, %r10 adcxq %rsi, %r11 MULXq %r13, %rdi, %rsi adoxq %rdi, %r11 adcxq %rsi, %r8 MULXq %rcx, %rdx, %rcx adoxq %rdx, %r8 adcxq %rax, %rcx adoxq %rax, %rcx imulq $38, %rcx, %rcx addq %rcx, %rbx adcq %rax, %r10 adcq %rax, %r11 adcq %rax, %r8 sbbq %rax, %rax andq $38, %rax addq %rax, %rbx movq %rbx, 120(%rsp) movq %r10, 128(%rsp) movq %r11, 136(%rsp) movq %r8, 144(%rsp) xorq %r9, %r9 movq %rbx, %rdx MULXq %rdx, %rdi, %rbx MULXq %r10, %rsi, %rax MULXq %r11, %rbp, %rcx adcxq %rbp, %rax MULXq %r8, %rdx, %rbp adcxq %rdx, %rcx movq %r10, %rdx MULXq %r11, %r12, %r10 adoxq %r12, %rcx adcxq %r10, %rbp MULXq %r8, %r12, %r10 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r11, %rdx MULXq %r8, %r14, %r11 adcxq %r14, %r10 adoxq %r9, %r10 adcxq %r9, %r11 adoxq %r9, %r11 MULXq %rdx, %r15, %r14 movq %r8, %rdx MULXq %rdx, %rdx, %r8 adcxq %rsi, %rsi adoxq %rbx, %rsi adcxq %rax, %rax adoxq %r13, %rax adcxq %rcx, %rcx adoxq %r12, %rcx adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r10, %r10 adoxq %r14, %r10 adcxq %r11, %r11 adoxq %rdx, %r11 adcxq %r9, %r8 adoxq %r9, %r8 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rdi adcxq %rbx, %rsi MULXq %r10, %rbx, %r10 adoxq %rbx, %rsi adcxq %r10, %rax MULXq %r11, %r11, %r10 adoxq %r11, %rax adcxq %r10, %rcx MULXq %r8, %r8, %rdx adoxq %r8, %rcx adcxq %r9, %rdx adoxq %r9, %rdx imulq $38, %rdx, %rdx addq %rdx, %rdi adcq %r9, %rsi adcq %r9, %rax adcq %r9, %rcx sbbq %r9, %r9 andq $38, %r9 addq %r9, %rdi movl $2, %edx Ljade_scalarmult_curve25519_amd64_mulx_base$8: movl %edx, 344(%rsp) xorq %r11, %r11 movq %rdi, %rdx MULXq %rdx, %rdi, %rbx MULXq %rsi, %r9, %r8 MULXq %rax, %rbp, %r10 adcxq %rbp, %r8 MULXq %rcx, %rdx, %rbp adcxq %rdx, %r10 movq %rsi, %rdx MULXq %rax, %r12, %rsi adoxq %r12, %r10 adcxq %rsi, %rbp MULXq %rcx, %r12, %rsi adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rax, %rdx MULXq %rcx, %r14, %rax adcxq %r14, %rsi adoxq %r11, %rsi adcxq %r11, %rax adoxq %r11, %rax MULXq %rdx, %r15, %r14 movq %rcx, %rdx MULXq %rdx, %rdx, %rcx adcxq %r9, %r9 adoxq %rbx, %r9 adcxq %r8, %r8 adoxq %r13, %r8 adcxq %r10, %r10 adoxq %r12, %r10 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rsi, %rsi adoxq %r14, %rsi adcxq %rax, %rax adoxq %rdx, %rax adcxq %r11, %rcx adoxq %r11, %rcx movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rdi adcxq %rbx, %r9 MULXq %rsi, %rbx, %rsi adoxq %rbx, %r9 adcxq %rsi, %r8 MULXq %rax, %rsi, %rax adoxq %rsi, %r8 adcxq %rax, %r10 MULXq %rcx, %rcx, %rax adoxq %rcx, %r10 adcxq %r11, %rax adoxq %r11, %rax imulq $38, %rax, %rax addq %rax, %rdi adcq %r11, %r9 adcq %r11, %r8 adcq %r11, %r10 sbbq %r11, %r11 andq $38, %r11 addq %r11, %rdi xorq %r11, %r11 movq %rdi, %rdx MULXq %rdx, %rdi, %rbx MULXq %r9, %rsi, %rax MULXq %r8, %rbp, %rcx adcxq %rbp, %rax MULXq %r10, %rdx, %rbp adcxq %rdx, %rcx movq %r9, %rdx MULXq %r8, %r12, %r9 adoxq %r12, %rcx adcxq %r9, %rbp MULXq %r10, %r12, %r9 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r8, %rdx MULXq %r10, %r14, %r8 adcxq %r14, %r9 adoxq %r11, %r9 adcxq %r11, %r8 adoxq %r11, %r8 MULXq %rdx, %r15, %r14 movq %r10, %rdx MULXq %rdx, %rdx, %r10 adcxq %rsi, %rsi adoxq %rbx, %rsi adcxq %rax, %rax adoxq %r13, %rax adcxq %rcx, %rcx adoxq %r12, %rcx adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r9, %r9 adoxq %r14, %r9 adcxq %r8, %r8 adoxq %rdx, %r8 adcxq %r11, %r10 adoxq %r11, %r10 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rdi adcxq %rbx, %rsi MULXq %r9, %rbx, %r9 adoxq %rbx, %rsi adcxq %r9, %rax MULXq %r8, %r9, %r8 adoxq %r9, %rax adcxq %r8, %rcx MULXq %r10, %r8, %rdx adoxq %r8, %rcx adcxq %r11, %rdx adoxq %r11, %rdx imulq $38, %rdx, %rdx addq %rdx, %rdi adcq %r11, %rsi adcq %r11, %rax adcq %r11, %rcx sbbq %r11, %r11 andq $38, %r11 addq %r11, %rdi movl 344(%rsp), %edx decl %edx jne Ljade_scalarmult_curve25519_amd64_mulx_base$8 xorq %r10, %r10 movq 120(%rsp), %rdx MULXq %rdi, %r12, %r8 MULXq %rsi, %r9, %r11 adcxq %r9, %r8 MULXq %rax, %rbx, %r9 adcxq %rbx, %r11 MULXq %rcx, %rdx, %rbx adcxq %rdx, %r9 adcxq %r10, %rbx movq 128(%rsp), %rdx MULXq %rdi, %r13, %rbp adoxq %r13, %r8 adcxq %rbp, %r11 MULXq %rsi, %r13, %rbp adoxq %r13, %r11 adcxq %rbp, %r9 MULXq %rax, %r13, %rbp adoxq %r13, %r9 adcxq %rbp, %rbx MULXq %rcx, %rdx, %rbp adoxq %rdx, %rbx adcxq %r10, %rbp adoxq %r10, %rbp movq 136(%rsp), %rdx MULXq %rdi, %r14, %r13 adoxq %r14, %r11 adcxq %r13, %r9 MULXq %rsi, %r14, %r13 adoxq %r14, %r9 adcxq %r13, %rbx MULXq %rax, %r14, %r13 adoxq %r14, %rbx adcxq %r13, %rbp MULXq %rcx, %rdx, %r13 adoxq %rdx, %rbp adcxq %r10, %r13 adoxq %r10, %r13 movq 144(%rsp), %rdx MULXq %rdi, %r14, %rdi adoxq %r14, %r9 adcxq %rdi, %rbx MULXq %rsi, %rdi, %rsi adoxq %rdi, %rbx adcxq %rsi, %rbp MULXq %rax, %rsi, %rax adoxq %rsi, %rbp adcxq %rax, %r13 MULXq %rcx, %rcx, %rax adoxq %rcx, %r13 adcxq %r10, %rax adoxq %r10, %rax movq $38, %rdx MULXq %rbx, %rsi, %rcx adoxq %rsi, %r12 adcxq %rcx, %r8 MULXq %rbp, %rsi, %rcx adoxq %rsi, %r8 adcxq %rcx, %r11 MULXq %r13, %rsi, %rcx adoxq %rsi, %r11 adcxq %rcx, %r9 MULXq %rax, %rcx, %rax adoxq %rcx, %r9 adcxq %r10, %rax adoxq %r10, %rax imulq $38, %rax, %rax addq %rax, %r12 adcq %r10, %r8 adcq %r10, %r11 adcq %r10, %r9 sbbq %r10, %r10 andq $38, %r10 addq %r10, %r12 movq %r12, 120(%rsp) movq %r8, 128(%rsp) movq %r11, 136(%rsp) movq %r9, 144(%rsp) movl $5, %eax Ljade_scalarmult_curve25519_amd64_mulx_base$7: movl %eax, 344(%rsp) xorq %rdi, %rdi movq %r12, %rdx MULXq %rdx, %r10, %rbx MULXq %r8, %rcx, %rax MULXq %r11, %rbp, %rsi adcxq %rbp, %rax MULXq %r9, %rdx, %rbp adcxq %rdx, %rsi movq %r8, %rdx MULXq %r11, %r12, %r8 adoxq %r12, %rsi adcxq %r8, %rbp MULXq %r9, %r12, %r8 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r11, %rdx MULXq %r9, %r14, %r11 adcxq %r14, %r8 adoxq %rdi, %r8 adcxq %rdi, %r11 adoxq %rdi, %r11 MULXq %rdx, %r15, %r14 movq %r9, %rdx MULXq %rdx, %rdx, %r9 adcxq %rcx, %rcx adoxq %rbx, %rcx adcxq %rax, %rax adoxq %r13, %rax adcxq %rsi, %rsi adoxq %r12, %rsi adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r8, %r8 adoxq %r14, %r8 adcxq %r11, %r11 adoxq %rdx, %r11 adcxq %rdi, %r9 adoxq %rdi, %r9 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %r10 adcxq %rbx, %rcx MULXq %r8, %rbx, %r8 adoxq %rbx, %rcx adcxq %r8, %rax MULXq %r11, %r11, %r8 adoxq %r11, %rax adcxq %r8, %rsi MULXq %r9, %r8, %rdx adoxq %r8, %rsi adcxq %rdi, %rdx adoxq %rdi, %rdx imulq $38, %rdx, %rdx addq %rdx, %r10 adcq %rdi, %rcx adcq %rdi, %rax adcq %rdi, %rsi sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %r10 xorq %rdi, %rdi movq %r10, %rdx MULXq %rdx, %r12, %r10 MULXq %rcx, %r8, %r11 MULXq %rax, %rbx, %r9 adcxq %rbx, %r11 MULXq %rsi, %rdx, %rbx adcxq %rdx, %r9 movq %rcx, %rdx MULXq %rax, %rbp, %rcx adoxq %rbp, %r9 adcxq %rcx, %rbx MULXq %rsi, %rbp, %rcx adoxq %rbp, %rbx MULXq %rdx, %r13, %rbp movq %rax, %rdx MULXq %rsi, %r14, %rax adcxq %r14, %rcx adoxq %rdi, %rcx adcxq %rdi, %rax adoxq %rdi, %rax MULXq %rdx, %r15, %r14 movq %rsi, %rdx MULXq %rdx, %rdx, %rsi adcxq %r8, %r8 adoxq %r10, %r8 adcxq %r11, %r11 adoxq %r13, %r11 adcxq %r9, %r9 adoxq %rbp, %r9 adcxq %rbx, %rbx adoxq %r15, %rbx adcxq %rcx, %rcx adoxq %r14, %rcx adcxq %rax, %rax adoxq %rdx, %rax adcxq %rdi, %rsi adoxq %rdi, %rsi movq $38, %rdx MULXq %rbx, %rbx, %r10 adoxq %rbx, %r12 adcxq %r10, %r8 MULXq %rcx, %r10, %rcx adoxq %r10, %r8 adcxq %rcx, %r11 MULXq %rax, %rcx, %rax adoxq %rcx, %r11 adcxq %rax, %r9 MULXq %rsi, %rcx, %rax adoxq %rcx, %r9 adcxq %rdi, %rax adoxq %rdi, %rax imulq $38, %rax, %rax addq %rax, %r12 adcq %rdi, %r8 adcq %rdi, %r11 adcq %rdi, %r9 sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %r12 movl 344(%rsp), %eax decl %eax jne Ljade_scalarmult_curve25519_amd64_mulx_base$7 xorq %rax, %rax movq 120(%rsp), %rdx MULXq %r12, %rbp, %rbx MULXq %r8, %rcx, %r10 adcxq %rcx, %rbx MULXq %r11, %rsi, %rcx adcxq %rsi, %r10 MULXq %r9, %rdx, %rsi adcxq %rdx, %rcx adcxq %rax, %rsi movq 128(%rsp), %rdx MULXq %r12, %r13, %rdi adoxq %r13, %rbx adcxq %rdi, %r10 MULXq %r8, %r13, %rdi adoxq %r13, %r10 adcxq %rdi, %rcx MULXq %r11, %r13, %rdi adoxq %r13, %rcx adcxq %rdi, %rsi MULXq %r9, %rdx, %rdi adoxq %rdx, %rsi adcxq %rax, %rdi adoxq %rax, %rdi movq 136(%rsp), %rdx MULXq %r12, %r14, %r13 adoxq %r14, %r10 adcxq %r13, %rcx MULXq %r8, %r14, %r13 adoxq %r14, %rcx adcxq %r13, %rsi MULXq %r11, %r14, %r13 adoxq %r14, %rsi adcxq %r13, %rdi MULXq %r9, %rdx, %r13 adoxq %rdx, %rdi adcxq %rax, %r13 adoxq %rax, %r13 movq 144(%rsp), %rdx MULXq %r12, %r14, %r12 adoxq %r14, %rcx adcxq %r12, %rsi MULXq %r8, %r12, %r8 adoxq %r12, %rsi adcxq %r8, %rdi MULXq %r11, %r11, %r8 adoxq %r11, %rdi adcxq %r8, %r13 MULXq %r9, %rdx, %r8 adoxq %rdx, %r13 adcxq %rax, %r8 adoxq %rax, %r8 movq $38, %rdx MULXq %rsi, %r9, %rsi adoxq %r9, %rbp adcxq %rsi, %rbx MULXq %rdi, %rdi, %rsi adoxq %rdi, %rbx adcxq %rsi, %r10 MULXq %r13, %rdi, %rsi adoxq %rdi, %r10 adcxq %rsi, %rcx MULXq %r8, %rsi, %rdx adoxq %rsi, %rcx adcxq %rax, %rdx adoxq %rax, %rdx imulq $38, %rdx, %rdx addq %rdx, %rbp adcq %rax, %rbx adcq %rax, %r10 adcq %rax, %rcx sbbq %rax, %rax andq $38, %rax addq %rax, %rbp movq %rbp, 152(%rsp) movq %rbx, 160(%rsp) movq %r10, 168(%rsp) movq %rcx, 176(%rsp) movl $10, %eax Ljade_scalarmult_curve25519_amd64_mulx_base$6: movl %eax, 344(%rsp) xorq %r8, %r8 movq %rbp, %rdx MULXq %rdx, %r9, %r11 MULXq %rbx, %rsi, %rax MULXq %r10, %rbp, %rdi adcxq %rbp, %rax MULXq %rcx, %rdx, %rbp adcxq %rdx, %rdi movq %rbx, %rdx MULXq %r10, %r12, %rbx adoxq %r12, %rdi adcxq %rbx, %rbp MULXq %rcx, %r12, %rbx adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r10, %rdx MULXq %rcx, %r14, %r10 adcxq %r14, %rbx adoxq %r8, %rbx adcxq %r8, %r10 adoxq %r8, %r10 MULXq %rdx, %r15, %r14 movq %rcx, %rdx MULXq %rdx, %rdx, %rcx adcxq %rsi, %rsi adoxq %r11, %rsi adcxq %rax, %rax adoxq %r13, %rax adcxq %rdi, %rdi adoxq %r12, %rdi adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rbx, %rbx adoxq %r14, %rbx adcxq %r10, %r10 adoxq %rdx, %r10 adcxq %r8, %rcx adoxq %r8, %rcx movq $38, %rdx MULXq %rbp, %rbp, %r11 adoxq %rbp, %r9 adcxq %r11, %rsi MULXq %rbx, %rbx, %r11 adoxq %rbx, %rsi adcxq %r11, %rax MULXq %r10, %r11, %r10 adoxq %r11, %rax adcxq %r10, %rdi MULXq %rcx, %rdx, %rcx adoxq %rdx, %rdi adcxq %r8, %rcx adoxq %r8, %rcx imulq $38, %rcx, %rcx addq %rcx, %r9 adcq %r8, %rsi adcq %r8, %rax adcq %r8, %rdi sbbq %r8, %r8 andq $38, %r8 addq %r8, %r9 xorq %r8, %r8 movq %r9, %rdx MULXq %rdx, %rbp, %r9 MULXq %rsi, %rbx, %r10 MULXq %rax, %r11, %rcx adcxq %r11, %r10 MULXq %rdi, %rdx, %r11 adcxq %rdx, %rcx movq %rsi, %rdx MULXq %rax, %r12, %rsi adoxq %r12, %rcx adcxq %rsi, %r11 MULXq %rdi, %r12, %rsi adoxq %r12, %r11 MULXq %rdx, %r13, %r12 movq %rax, %rdx MULXq %rdi, %r14, %rax adcxq %r14, %rsi adoxq %r8, %rsi adcxq %r8, %rax adoxq %r8, %rax MULXq %rdx, %r15, %r14 movq %rdi, %rdx MULXq %rdx, %rdx, %rdi adcxq %rbx, %rbx adoxq %r9, %rbx adcxq %r10, %r10 adoxq %r13, %r10 adcxq %rcx, %rcx adoxq %r12, %rcx adcxq %r11, %r11 adoxq %r15, %r11 adcxq %rsi, %rsi adoxq %r14, %rsi adcxq %rax, %rax adoxq %rdx, %rax adcxq %r8, %rdi adoxq %r8, %rdi movq $38, %rdx MULXq %r11, %r11, %r9 adoxq %r11, %rbp adcxq %r9, %rbx MULXq %rsi, %r9, %rsi adoxq %r9, %rbx adcxq %rsi, %r10 MULXq %rax, %rsi, %rax adoxq %rsi, %r10 adcxq %rax, %rcx MULXq %rdi, %rdx, %rax adoxq %rdx, %rcx adcxq %r8, %rax adoxq %r8, %rax imulq $38, %rax, %rax addq %rax, %rbp adcq %r8, %rbx adcq %r8, %r10 adcq %r8, %rcx sbbq %r8, %r8 andq $38, %r8 addq %r8, %rbp movl 344(%rsp), %eax decl %eax jne Ljade_scalarmult_curve25519_amd64_mulx_base$6 xorq %r9, %r9 movq 152(%rsp), %rdx MULXq %rbp, %rdi, %rax MULXq %rbx, %r8, %rsi adcxq %r8, %rax MULXq %r10, %r11, %r8 adcxq %r11, %rsi MULXq %rcx, %rdx, %r11 adcxq %rdx, %r8 adcxq %r9, %r11 movq 160(%rsp), %rdx MULXq %rbp, %r13, %r12 adoxq %r13, %rax adcxq %r12, %rsi MULXq %rbx, %r13, %r12 adoxq %r13, %rsi adcxq %r12, %r8 MULXq %r10, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %r11 MULXq %rcx, %rdx, %r12 adoxq %rdx, %r11 adcxq %r9, %r12 adoxq %r9, %r12 movq 168(%rsp), %rdx MULXq %rbp, %r14, %r13 adoxq %r14, %rsi adcxq %r13, %r8 MULXq %rbx, %r14, %r13 adoxq %r14, %r8 adcxq %r13, %r11 MULXq %r10, %r14, %r13 adoxq %r14, %r11 adcxq %r13, %r12 MULXq %rcx, %rdx, %r13 adoxq %rdx, %r12 adcxq %r9, %r13 adoxq %r9, %r13 movq 176(%rsp), %rdx MULXq %rbp, %r14, %rbp adoxq %r14, %r8 adcxq %rbp, %r11 MULXq %rbx, %rbp, %rbx adoxq %rbp, %r11 adcxq %rbx, %r12 MULXq %r10, %rbx, %r10 adoxq %rbx, %r12 adcxq %r10, %r13 MULXq %rcx, %rdx, %rcx adoxq %rdx, %r13 adcxq %r9, %rcx adoxq %r9, %rcx movq $38, %rdx MULXq %r11, %r11, %r10 adoxq %r11, %rdi adcxq %r10, %rax MULXq %r12, %r11, %r10 adoxq %r11, %rax adcxq %r10, %rsi MULXq %r13, %r11, %r10 adoxq %r11, %rsi adcxq %r10, %r8 MULXq %rcx, %rdx, %rcx adoxq %rdx, %r8 adcxq %r9, %rcx adoxq %r9, %rcx imulq $38, %rcx, %rcx addq %rcx, %rdi adcq %r9, %rax adcq %r9, %rsi adcq %r9, %r8 sbbq %r9, %r9 andq $38, %r9 addq %r9, %rdi movl $5, %ecx Ljade_scalarmult_curve25519_amd64_mulx_base$5: movl %ecx, 344(%rsp) xorq %r11, %r11 movq %rdi, %rdx MULXq %rdx, %rdi, %rbx MULXq %rax, %r9, %rcx MULXq %rsi, %rbp, %r10 adcxq %rbp, %rcx MULXq %r8, %rdx, %rbp adcxq %rdx, %r10 movq %rax, %rdx MULXq %rsi, %r12, %rax adoxq %r12, %r10 adcxq %rax, %rbp MULXq %r8, %r12, %rax adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rsi, %rdx MULXq %r8, %r14, %rsi adcxq %r14, %rax adoxq %r11, %rax adcxq %r11, %rsi adoxq %r11, %rsi MULXq %rdx, %r15, %r14 movq %r8, %rdx MULXq %rdx, %rdx, %r8 adcxq %r9, %r9 adoxq %rbx, %r9 adcxq %rcx, %rcx adoxq %r13, %rcx adcxq %r10, %r10 adoxq %r12, %r10 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rax, %rax adoxq %r14, %rax adcxq %rsi, %rsi adoxq %rdx, %rsi adcxq %r11, %r8 adoxq %r11, %r8 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rdi adcxq %rbx, %r9 MULXq %rax, %rbx, %rax adoxq %rbx, %r9 adcxq %rax, %rcx MULXq %rsi, %rsi, %rax adoxq %rsi, %rcx adcxq %rax, %r10 MULXq %r8, %rdx, %rax adoxq %rdx, %r10 adcxq %r11, %rax adoxq %r11, %rax imulq $38, %rax, %rax addq %rax, %rdi adcq %r11, %r9 adcq %r11, %rcx adcq %r11, %r10 sbbq %r11, %r11 andq $38, %r11 addq %r11, %rdi xorq %r11, %r11 movq %rdi, %rdx MULXq %rdx, %rdi, %rbx MULXq %r9, %rax, %rsi MULXq %rcx, %rbp, %r8 adcxq %rbp, %rsi MULXq %r10, %rdx, %rbp adcxq %rdx, %r8 movq %r9, %rdx MULXq %rcx, %r12, %r9 adoxq %r12, %r8 adcxq %r9, %rbp MULXq %r10, %r12, %r9 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rcx, %rdx MULXq %r10, %r14, %rcx adcxq %r14, %r9 adoxq %r11, %r9 adcxq %r11, %rcx adoxq %r11, %rcx MULXq %rdx, %r15, %r14 movq %r10, %rdx MULXq %rdx, %rdx, %r10 adcxq %rax, %rax adoxq %rbx, %rax adcxq %rsi, %rsi adoxq %r13, %rsi adcxq %r8, %r8 adoxq %r12, %r8 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r9, %r9 adoxq %r14, %r9 adcxq %rcx, %rcx adoxq %rdx, %rcx adcxq %r11, %r10 adoxq %r11, %r10 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rdi adcxq %rbx, %rax MULXq %r9, %rbx, %r9 adoxq %rbx, %rax adcxq %r9, %rsi MULXq %rcx, %r9, %rcx adoxq %r9, %rsi adcxq %rcx, %r8 MULXq %r10, %rdx, %rcx adoxq %rdx, %r8 adcxq %r11, %rcx adoxq %r11, %rcx imulq $38, %rcx, %rcx addq %rcx, %rdi adcq %r11, %rax adcq %r11, %rsi adcq %r11, %r8 sbbq %r11, %r11 andq $38, %r11 addq %r11, %rdi movl 344(%rsp), %ecx decl %ecx jne Ljade_scalarmult_curve25519_amd64_mulx_base$5 xorq %rcx, %rcx movq 120(%rsp), %rdx MULXq %rdi, %rbx, %r9 MULXq %rax, %r11, %r10 adcxq %r11, %r9 MULXq %rsi, %rbp, %r11 adcxq %rbp, %r10 MULXq %r8, %rdx, %rbp adcxq %rdx, %r11 adcxq %rcx, %rbp movq 128(%rsp), %rdx MULXq %rdi, %r13, %r12 adoxq %r13, %r9 adcxq %r12, %r10 MULXq %rax, %r13, %r12 adoxq %r13, %r10 adcxq %r12, %r11 MULXq %rsi, %r13, %r12 adoxq %r13, %r11 adcxq %r12, %rbp MULXq %r8, %rdx, %r12 adoxq %rdx, %rbp adcxq %rcx, %r12 adoxq %rcx, %r12 movq 136(%rsp), %rdx MULXq %rdi, %r14, %r13 adoxq %r14, %r10 adcxq %r13, %r11 MULXq %rax, %r14, %r13 adoxq %r14, %r11 adcxq %r13, %rbp MULXq %rsi, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %r8, %rdx, %r13 adoxq %rdx, %r12 adcxq %rcx, %r13 adoxq %rcx, %r13 movq 144(%rsp), %rdx MULXq %rdi, %r14, %rdi adoxq %r14, %r11 adcxq %rdi, %rbp MULXq %rax, %rdi, %rax adoxq %rdi, %rbp adcxq %rax, %r12 MULXq %rsi, %rsi, %rax adoxq %rsi, %r12 adcxq %rax, %r13 MULXq %r8, %rdx, %rax adoxq %rdx, %r13 adcxq %rcx, %rax adoxq %rcx, %rax movq $38, %rdx MULXq %rbp, %rdi, %rsi adoxq %rdi, %rbx adcxq %rsi, %r9 MULXq %r12, %rdi, %rsi adoxq %rdi, %r9 adcxq %rsi, %r10 MULXq %r13, %rdi, %rsi adoxq %rdi, %r10 adcxq %rsi, %r11 MULXq %rax, %rdx, %rax adoxq %rdx, %r11 adcxq %rcx, %rax adoxq %rcx, %rax imulq $38, %rax, %rax addq %rax, %rbx adcq %rcx, %r9 adcq %rcx, %r10 adcq %rcx, %r11 sbbq %rcx, %rcx andq $38, %rcx addq %rcx, %rbx movq %rbx, 120(%rsp) movq %r9, 128(%rsp) movq %r10, 136(%rsp) movq %r11, 144(%rsp) movl $25, %eax Ljade_scalarmult_curve25519_amd64_mulx_base$4: movl %eax, 344(%rsp) xorq %rdi, %rdi movq %rbx, %rdx MULXq %rdx, %r8, %rbx MULXq %r9, %rcx, %rax MULXq %r10, %rbp, %rsi adcxq %rbp, %rax MULXq %r11, %rdx, %rbp adcxq %rdx, %rsi movq %r9, %rdx MULXq %r10, %r12, %r9 adoxq %r12, %rsi adcxq %r9, %rbp MULXq %r11, %r12, %r9 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r10, %rdx MULXq %r11, %r14, %r10 adcxq %r14, %r9 adoxq %rdi, %r9 adcxq %rdi, %r10 adoxq %rdi, %r10 MULXq %rdx, %r15, %r14 movq %r11, %rdx MULXq %rdx, %rdx, %r11 adcxq %rcx, %rcx adoxq %rbx, %rcx adcxq %rax, %rax adoxq %r13, %rax adcxq %rsi, %rsi adoxq %r12, %rsi adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r9, %r9 adoxq %r14, %r9 adcxq %r10, %r10 adoxq %rdx, %r10 adcxq %rdi, %r11 adoxq %rdi, %r11 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %r8 adcxq %rbx, %rcx MULXq %r9, %rbx, %r9 adoxq %rbx, %rcx adcxq %r9, %rax MULXq %r10, %r10, %r9 adoxq %r10, %rax adcxq %r9, %rsi MULXq %r11, %r9, %rdx adoxq %r9, %rsi adcxq %rdi, %rdx adoxq %rdi, %rdx imulq $38, %rdx, %rdx addq %rdx, %r8 adcq %rdi, %rcx adcq %rdi, %rax adcq %rdi, %rsi sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %r8 xorq %rdi, %rdi movq %r8, %rdx MULXq %rdx, %rbx, %r8 MULXq %rcx, %r9, %r10 MULXq %rax, %rbp, %r11 adcxq %rbp, %r10 MULXq %rsi, %rdx, %rbp adcxq %rdx, %r11 movq %rcx, %rdx MULXq %rax, %r12, %rcx adoxq %r12, %r11 adcxq %rcx, %rbp MULXq %rsi, %r12, %rcx adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rax, %rdx MULXq %rsi, %r14, %rax adcxq %r14, %rcx adoxq %rdi, %rcx adcxq %rdi, %rax adoxq %rdi, %rax MULXq %rdx, %r15, %r14 movq %rsi, %rdx MULXq %rdx, %rdx, %rsi adcxq %r9, %r9 adoxq %r8, %r9 adcxq %r10, %r10 adoxq %r13, %r10 adcxq %r11, %r11 adoxq %r12, %r11 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rcx, %rcx adoxq %r14, %rcx adcxq %rax, %rax adoxq %rdx, %rax adcxq %rdi, %rsi adoxq %rdi, %rsi movq $38, %rdx MULXq %rbp, %rbp, %r8 adoxq %rbp, %rbx adcxq %r8, %r9 MULXq %rcx, %r8, %rcx adoxq %r8, %r9 adcxq %rcx, %r10 MULXq %rax, %rcx, %rax adoxq %rcx, %r10 adcxq %rax, %r11 MULXq %rsi, %rcx, %rax adoxq %rcx, %r11 adcxq %rdi, %rax adoxq %rdi, %rax imulq $38, %rax, %rax addq %rax, %rbx adcq %rdi, %r9 adcq %rdi, %r10 adcq %rdi, %r11 sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %rbx movl 344(%rsp), %eax decl %eax jne Ljade_scalarmult_curve25519_amd64_mulx_base$4 xorq %r8, %r8 movq 120(%rsp), %rdx MULXq %rbx, %rdi, %rsi MULXq %r9, %rax, %rcx adcxq %rax, %rsi MULXq %r10, %rbp, %rax adcxq %rbp, %rcx MULXq %r11, %rdx, %rbp adcxq %rdx, %rax adcxq %r8, %rbp movq 128(%rsp), %rdx MULXq %rbx, %r13, %r12 adoxq %r13, %rsi adcxq %r12, %rcx MULXq %r9, %r13, %r12 adoxq %r13, %rcx adcxq %r12, %rax MULXq %r10, %r13, %r12 adoxq %r13, %rax adcxq %r12, %rbp MULXq %r11, %rdx, %r12 adoxq %rdx, %rbp adcxq %r8, %r12 adoxq %r8, %r12 movq 136(%rsp), %rdx MULXq %rbx, %r14, %r13 adoxq %r14, %rcx adcxq %r13, %rax MULXq %r9, %r14, %r13 adoxq %r14, %rax adcxq %r13, %rbp MULXq %r10, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %r11, %rdx, %r13 adoxq %rdx, %r12 adcxq %r8, %r13 adoxq %r8, %r13 movq 144(%rsp), %rdx MULXq %rbx, %r14, %rbx adoxq %r14, %rax adcxq %rbx, %rbp MULXq %r9, %rbx, %r9 adoxq %rbx, %rbp adcxq %r9, %r12 MULXq %r10, %r10, %r9 adoxq %r10, %r12 adcxq %r9, %r13 MULXq %r11, %rdx, %r9 adoxq %rdx, %r13 adcxq %r8, %r9 adoxq %r8, %r9 movq $38, %rdx MULXq %rbp, %r11, %r10 adoxq %r11, %rdi adcxq %r10, %rsi MULXq %r12, %r11, %r10 adoxq %r11, %rsi adcxq %r10, %rcx MULXq %r13, %r11, %r10 adoxq %r11, %rcx adcxq %r10, %rax MULXq %r9, %r9, %rdx adoxq %r9, %rax adcxq %r8, %rdx adoxq %r8, %rdx imulq $38, %rdx, %rdx addq %rdx, %rdi adcq %r8, %rsi adcq %r8, %rcx adcq %r8, %rax sbbq %r8, %r8 andq $38, %r8 addq %r8, %rdi movq %rdi, 152(%rsp) movq %rsi, 160(%rsp) movq %rcx, 168(%rsp) movq %rax, 176(%rsp) movl $50, %edx Ljade_scalarmult_curve25519_amd64_mulx_base$3: movl %edx, 344(%rsp) xorq %r11, %r11 movq %rdi, %rdx MULXq %rdx, %rdi, %rbx MULXq %rsi, %r9, %r8 MULXq %rcx, %rbp, %r10 adcxq %rbp, %r8 MULXq %rax, %rdx, %rbp adcxq %rdx, %r10 movq %rsi, %rdx MULXq %rcx, %r12, %rsi adoxq %r12, %r10 adcxq %rsi, %rbp MULXq %rax, %r12, %rsi adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rcx, %rdx MULXq %rax, %r14, %rcx adcxq %r14, %rsi adoxq %r11, %rsi adcxq %r11, %rcx adoxq %r11, %rcx MULXq %rdx, %r15, %r14 movq %rax, %rdx MULXq %rdx, %rdx, %rax adcxq %r9, %r9 adoxq %rbx, %r9 adcxq %r8, %r8 adoxq %r13, %r8 adcxq %r10, %r10 adoxq %r12, %r10 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rsi, %rsi adoxq %r14, %rsi adcxq %rcx, %rcx adoxq %rdx, %rcx adcxq %r11, %rax adoxq %r11, %rax movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rdi adcxq %rbx, %r9 MULXq %rsi, %rbx, %rsi adoxq %rbx, %r9 adcxq %rsi, %r8 MULXq %rcx, %rsi, %rcx adoxq %rsi, %r8 adcxq %rcx, %r10 MULXq %rax, %rcx, %rax adoxq %rcx, %r10 adcxq %r11, %rax adoxq %r11, %rax imulq $38, %rax, %rax addq %rax, %rdi adcq %r11, %r9 adcq %r11, %r8 adcq %r11, %r10 sbbq %r11, %r11 andq $38, %r11 addq %r11, %rdi xorq %r11, %r11 movq %rdi, %rdx MULXq %rdx, %rdi, %rbx MULXq %r9, %rsi, %rcx MULXq %r8, %rbp, %rax adcxq %rbp, %rcx MULXq %r10, %rdx, %rbp adcxq %rdx, %rax movq %r9, %rdx MULXq %r8, %r12, %r9 adoxq %r12, %rax adcxq %r9, %rbp MULXq %r10, %r12, %r9 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r8, %rdx MULXq %r10, %r14, %r8 adcxq %r14, %r9 adoxq %r11, %r9 adcxq %r11, %r8 adoxq %r11, %r8 MULXq %rdx, %r15, %r14 movq %r10, %rdx MULXq %rdx, %rdx, %r10 adcxq %rsi, %rsi adoxq %rbx, %rsi adcxq %rcx, %rcx adoxq %r13, %rcx adcxq %rax, %rax adoxq %r12, %rax adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r9, %r9 adoxq %r14, %r9 adcxq %r8, %r8 adoxq %rdx, %r8 adcxq %r11, %r10 adoxq %r11, %r10 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rdi adcxq %rbx, %rsi MULXq %r9, %rbx, %r9 adoxq %rbx, %rsi adcxq %r9, %rcx MULXq %r8, %r9, %r8 adoxq %r9, %rcx adcxq %r8, %rax MULXq %r10, %r8, %rdx adoxq %r8, %rax adcxq %r11, %rdx adoxq %r11, %rdx imulq $38, %rdx, %rdx addq %rdx, %rdi adcq %r11, %rsi adcq %r11, %rcx adcq %r11, %rax sbbq %r11, %r11 andq $38, %r11 addq %r11, %rdi movl 344(%rsp), %edx decl %edx jne Ljade_scalarmult_curve25519_amd64_mulx_base$3 xorq %rbx, %rbx movq 152(%rsp), %rdx MULXq %rdi, %r9, %r8 MULXq %rsi, %r11, %r10 adcxq %r11, %r8 MULXq %rcx, %rbp, %r11 adcxq %rbp, %r10 MULXq %rax, %rdx, %rbp adcxq %rdx, %r11 adcxq %rbx, %rbp movq 160(%rsp), %rdx MULXq %rdi, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %r10 MULXq %rsi, %r13, %r12 adoxq %r13, %r10 adcxq %r12, %r11 MULXq %rcx, %r13, %r12 adoxq %r13, %r11 adcxq %r12, %rbp MULXq %rax, %rdx, %r12 adoxq %rdx, %rbp adcxq %rbx, %r12 adoxq %rbx, %r12 movq 168(%rsp), %rdx MULXq %rdi, %r14, %r13 adoxq %r14, %r10 adcxq %r13, %r11 MULXq %rsi, %r14, %r13 adoxq %r14, %r11 adcxq %r13, %rbp MULXq %rcx, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rax, %rdx, %r13 adoxq %rdx, %r12 adcxq %rbx, %r13 adoxq %rbx, %r13 movq 176(%rsp), %rdx MULXq %rdi, %r14, %rdi adoxq %r14, %r11 adcxq %rdi, %rbp MULXq %rsi, %rdi, %rsi adoxq %rdi, %rbp adcxq %rsi, %r12 MULXq %rcx, %rsi, %rcx adoxq %rsi, %r12 adcxq %rcx, %r13 MULXq %rax, %rcx, %rax adoxq %rcx, %r13 adcxq %rbx, %rax adoxq %rbx, %rax movq $38, %rdx MULXq %rbp, %rsi, %rcx adoxq %rsi, %r9 adcxq %rcx, %r8 MULXq %r12, %rsi, %rcx adoxq %rsi, %r8 adcxq %rcx, %r10 MULXq %r13, %rsi, %rcx adoxq %rsi, %r10 adcxq %rcx, %r11 MULXq %rax, %rcx, %rax adoxq %rcx, %r11 adcxq %rbx, %rax adoxq %rbx, %rax imulq $38, %rax, %rax addq %rax, %r9 adcq %rbx, %r8 adcq %rbx, %r10 adcq %rbx, %r11 sbbq %rbx, %rbx andq $38, %rbx addq %rbx, %r9 movl $25, %eax Ljade_scalarmult_curve25519_amd64_mulx_base$2: movl %eax, 344(%rsp) xorq %rdi, %rdi movq %r9, %rdx MULXq %rdx, %r9, %rbx MULXq %r8, %rcx, %rax MULXq %r10, %rbp, %rsi adcxq %rbp, %rax MULXq %r11, %rdx, %rbp adcxq %rdx, %rsi movq %r8, %rdx MULXq %r10, %r12, %r8 adoxq %r12, %rsi adcxq %r8, %rbp MULXq %r11, %r12, %r8 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r10, %rdx MULXq %r11, %r14, %r10 adcxq %r14, %r8 adoxq %rdi, %r8 adcxq %rdi, %r10 adoxq %rdi, %r10 MULXq %rdx, %r15, %r14 movq %r11, %rdx MULXq %rdx, %rdx, %r11 adcxq %rcx, %rcx adoxq %rbx, %rcx adcxq %rax, %rax adoxq %r13, %rax adcxq %rsi, %rsi adoxq %r12, %rsi adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r8, %r8 adoxq %r14, %r8 adcxq %r10, %r10 adoxq %rdx, %r10 adcxq %rdi, %r11 adoxq %rdi, %r11 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %r9 adcxq %rbx, %rcx MULXq %r8, %rbx, %r8 adoxq %rbx, %rcx adcxq %r8, %rax MULXq %r10, %r10, %r8 adoxq %r10, %rax adcxq %r8, %rsi MULXq %r11, %r8, %rdx adoxq %r8, %rsi adcxq %rdi, %rdx adoxq %rdi, %rdx imulq $38, %rdx, %rdx addq %rdx, %r9 adcq %rdi, %rcx adcq %rdi, %rax adcq %rdi, %rsi sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %r9 xorq %rdi, %rdi movq %r9, %rdx MULXq %rdx, %r9, %rbx MULXq %rcx, %r8, %r10 MULXq %rax, %rbp, %r11 adcxq %rbp, %r10 MULXq %rsi, %rdx, %rbp adcxq %rdx, %r11 movq %rcx, %rdx MULXq %rax, %r12, %rcx adoxq %r12, %r11 adcxq %rcx, %rbp MULXq %rsi, %r12, %rcx adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rax, %rdx MULXq %rsi, %r14, %rax adcxq %r14, %rcx adoxq %rdi, %rcx adcxq %rdi, %rax adoxq %rdi, %rax MULXq %rdx, %r15, %r14 movq %rsi, %rdx MULXq %rdx, %rdx, %rsi adcxq %r8, %r8 adoxq %rbx, %r8 adcxq %r10, %r10 adoxq %r13, %r10 adcxq %r11, %r11 adoxq %r12, %r11 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rcx, %rcx adoxq %r14, %rcx adcxq %rax, %rax adoxq %rdx, %rax adcxq %rdi, %rsi adoxq %rdi, %rsi movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %r9 adcxq %rbx, %r8 MULXq %rcx, %rbx, %rcx adoxq %rbx, %r8 adcxq %rcx, %r10 MULXq %rax, %rcx, %rax adoxq %rcx, %r10 adcxq %rax, %r11 MULXq %rsi, %rcx, %rax adoxq %rcx, %r11 adcxq %rdi, %rax adoxq %rdi, %rax imulq $38, %rax, %rax addq %rax, %r9 adcq %rdi, %r8 adcq %rdi, %r10 adcq %rdi, %r11 sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %r9 movl 344(%rsp), %eax decl %eax jne Ljade_scalarmult_curve25519_amd64_mulx_base$2 xorq %rdi, %rdi movq 120(%rsp), %rdx MULXq %r9, %rsi, %rcx MULXq %r8, %rax, %rbx adcxq %rax, %rcx MULXq %r10, %rbp, %rax adcxq %rbp, %rbx MULXq %r11, %rdx, %rbp adcxq %rdx, %rax adcxq %rdi, %rbp movq 128(%rsp), %rdx MULXq %r9, %r13, %r12 adoxq %r13, %rcx adcxq %r12, %rbx MULXq %r8, %r13, %r12 adoxq %r13, %rbx adcxq %r12, %rax MULXq %r10, %r13, %r12 adoxq %r13, %rax adcxq %r12, %rbp MULXq %r11, %rdx, %r12 adoxq %rdx, %rbp adcxq %rdi, %r12 adoxq %rdi, %r12 movq 136(%rsp), %rdx MULXq %r9, %r14, %r13 adoxq %r14, %rbx adcxq %r13, %rax MULXq %r8, %r14, %r13 adoxq %r14, %rax adcxq %r13, %rbp MULXq %r10, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %r11, %rdx, %r13 adoxq %rdx, %r12 adcxq %rdi, %r13 adoxq %rdi, %r13 movq 144(%rsp), %rdx MULXq %r9, %r14, %r9 adoxq %r14, %rax adcxq %r9, %rbp MULXq %r8, %r9, %r8 adoxq %r9, %rbp adcxq %r8, %r12 MULXq %r10, %r9, %r8 adoxq %r9, %r12 adcxq %r8, %r13 MULXq %r11, %rdx, %r8 adoxq %rdx, %r13 adcxq %rdi, %r8 adoxq %rdi, %r8 movq $38, %rdx MULXq %rbp, %r10, %r9 adoxq %r10, %rsi adcxq %r9, %rcx MULXq %r12, %r10, %r9 adoxq %r10, %rcx adcxq %r9, %rbx MULXq %r13, %r10, %r9 adoxq %r10, %rbx adcxq %r9, %rax MULXq %r8, %r8, %rdx adoxq %r8, %rax adcxq %rdi, %rdx adoxq %rdi, %rdx imulq $38, %rdx, %rdx addq %rdx, %rsi adcq %rdi, %rcx adcq %rdi, %rbx adcq %rdi, %rax sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %rsi movl $2, %edx Ljade_scalarmult_curve25519_amd64_mulx_base$1: movl %edx, 344(%rsp) xorq %r10, %r10 movq %rsi, %rdx MULXq %rdx, %rsi, %r11 MULXq %rcx, %r8, %rdi MULXq %rbx, %rbp, %r9 adcxq %rbp, %rdi MULXq %rax, %rdx, %rbp adcxq %rdx, %r9 movq %rcx, %rdx MULXq %rbx, %r12, %rcx adoxq %r12, %r9 adcxq %rcx, %rbp MULXq %rax, %r12, %rcx adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rbx, %rdx MULXq %rax, %r14, %rbx adcxq %r14, %rcx adoxq %r10, %rcx adcxq %r10, %rbx adoxq %r10, %rbx MULXq %rdx, %r15, %r14 movq %rax, %rdx MULXq %rdx, %rdx, %rax adcxq %r8, %r8 adoxq %r11, %r8 adcxq %rdi, %rdi adoxq %r13, %rdi adcxq %r9, %r9 adoxq %r12, %r9 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rcx, %rcx adoxq %r14, %rcx adcxq %rbx, %rbx adoxq %rdx, %rbx adcxq %r10, %rax adoxq %r10, %rax movq $38, %rdx MULXq %rbp, %rbp, %r11 adoxq %rbp, %rsi adcxq %r11, %r8 MULXq %rcx, %r11, %rcx adoxq %r11, %r8 adcxq %rcx, %rdi MULXq %rbx, %r11, %rcx adoxq %r11, %rdi adcxq %rcx, %r9 MULXq %rax, %rcx, %rax adoxq %rcx, %r9 adcxq %r10, %rax adoxq %r10, %rax imulq $38, %rax, %rax addq %rax, %rsi adcq %r10, %r8 adcq %r10, %rdi adcq %r10, %r9 sbbq %r10, %r10 andq $38, %r10 addq %r10, %rsi xorq %r10, %r10 movq %rsi, %rdx MULXq %rdx, %rsi, %r11 MULXq %r8, %rcx, %rbx MULXq %rdi, %rbp, %rax adcxq %rbp, %rbx MULXq %r9, %rdx, %rbp adcxq %rdx, %rax movq %r8, %rdx MULXq %rdi, %r12, %r8 adoxq %r12, %rax adcxq %r8, %rbp MULXq %r9, %r12, %r8 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rdi, %rdx MULXq %r9, %r14, %rdi adcxq %r14, %r8 adoxq %r10, %r8 adcxq %r10, %rdi adoxq %r10, %rdi MULXq %rdx, %r15, %r14 movq %r9, %rdx MULXq %rdx, %rdx, %r9 adcxq %rcx, %rcx adoxq %r11, %rcx adcxq %rbx, %rbx adoxq %r13, %rbx adcxq %rax, %rax adoxq %r12, %rax adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r8, %r8 adoxq %r14, %r8 adcxq %rdi, %rdi adoxq %rdx, %rdi adcxq %r10, %r9 adoxq %r10, %r9 movq $38, %rdx MULXq %rbp, %rbp, %r11 adoxq %rbp, %rsi adcxq %r11, %rcx MULXq %r8, %r11, %r8 adoxq %r11, %rcx adcxq %r8, %rbx MULXq %rdi, %r8, %rdi adoxq %r8, %rbx adcxq %rdi, %rax MULXq %r9, %rdi, %rdx adoxq %rdi, %rax adcxq %r10, %rdx adoxq %r10, %rdx imulq $38, %rdx, %rdx addq %rdx, %rsi adcq %r10, %rcx adcq %r10, %rbx adcq %r10, %rax sbbq %r10, %r10 andq $38, %r10 addq %r10, %rsi movl 344(%rsp), %edx decl %edx jne Ljade_scalarmult_curve25519_amd64_mulx_base$1 xorq %r8, %r8 movq %rsi, %rdx MULXq %rdx, %rsi, %r9 MULXq %rcx, %r10, %rdi MULXq %rbx, %rbp, %r11 adcxq %rbp, %rdi MULXq %rax, %rdx, %rbp adcxq %rdx, %r11 movq %rcx, %rdx MULXq %rbx, %r12, %rcx adoxq %r12, %r11 adcxq %rcx, %rbp MULXq %rax, %r12, %rcx adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rbx, %rdx MULXq %rax, %r14, %rbx adcxq %r14, %rcx adoxq %r8, %rcx adcxq %r8, %rbx adoxq %r8, %rbx MULXq %rdx, %r15, %r14 movq %rax, %rdx MULXq %rdx, %rdx, %rax adcxq %r10, %r10 adoxq %r9, %r10 adcxq %rdi, %rdi adoxq %r13, %rdi adcxq %r11, %r11 adoxq %r12, %r11 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rcx, %rcx adoxq %r14, %rcx adcxq %rbx, %rbx adoxq %rdx, %rbx adcxq %r8, %rax adoxq %r8, %rax movq $38, %rdx MULXq %rbp, %rbp, %r9 adoxq %rbp, %rsi adcxq %r9, %r10 MULXq %rcx, %r9, %rcx adoxq %r9, %r10 adcxq %rcx, %rdi MULXq %rbx, %r9, %rcx adoxq %r9, %rdi adcxq %rcx, %r11 MULXq %rax, %rcx, %rax adoxq %rcx, %r11 adcxq %r8, %rax adoxq %r8, %rax imulq $38, %rax, %rax addq %rax, %rsi adcq %r8, %r10 adcq %r8, %rdi adcq %r8, %r11 sbbq %r8, %r8 andq $38, %r8 addq %r8, %rsi xorq %rbx, %rbx movq 88(%rsp), %rdx MULXq %rsi, %rcx, %rax MULXq %r10, %r9, %r8 adcxq %r9, %rax MULXq %rdi, %rbp, %r9 adcxq %rbp, %r8 MULXq %r11, %rdx, %rbp adcxq %rdx, %r9 adcxq %rbx, %rbp movq 96(%rsp), %rdx MULXq %rsi, %r13, %r12 adoxq %r13, %rax adcxq %r12, %r8 MULXq %r10, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %r9 MULXq %rdi, %r13, %r12 adoxq %r13, %r9 adcxq %r12, %rbp MULXq %r11, %rdx, %r12 adoxq %rdx, %rbp adcxq %rbx, %r12 adoxq %rbx, %r12 movq 104(%rsp), %rdx MULXq %rsi, %r14, %r13 adoxq %r14, %r8 adcxq %r13, %r9 MULXq %r10, %r14, %r13 adoxq %r14, %r9 adcxq %r13, %rbp MULXq %rdi, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %r11, %rdx, %r13 adoxq %rdx, %r12 adcxq %rbx, %r13 adoxq %rbx, %r13 movq 112(%rsp), %rdx MULXq %rsi, %r14, %rsi adoxq %r14, %r9 adcxq %rsi, %rbp MULXq %r10, %r10, %rsi adoxq %r10, %rbp adcxq %rsi, %r12 MULXq %rdi, %rdi, %rsi adoxq %rdi, %r12 adcxq %rsi, %r13 MULXq %r11, %rdx, %rsi adoxq %rdx, %r13 adcxq %rbx, %rsi adoxq %rbx, %rsi movq $38, %rdx MULXq %rbp, %r10, %rdi adoxq %r10, %rcx adcxq %rdi, %rax MULXq %r12, %r10, %rdi adoxq %r10, %rax adcxq %rdi, %r8 MULXq %r13, %r10, %rdi adoxq %r10, %r8 adcxq %rdi, %r9 MULXq %rsi, %rsi, %rdx adoxq %rsi, %r9 adcxq %rbx, %rdx adoxq %rbx, %rdx imulq $38, %rdx, %rdx addq %rdx, %rcx adcq %rbx, %rax adcq %rbx, %r8 adcq %rbx, %r9 sbbq %rbx, %rbx andq $38, %rbx addq %rbx, %rcx xorq %rsi, %rsi movq 56(%rsp), %rdx MULXq %rcx, %r10, %rdi MULXq %rax, %rbx, %r11 adcxq %rbx, %rdi MULXq %r8, %rbp, %rbx adcxq %rbp, %r11 MULXq %r9, %rdx, %rbp adcxq %rdx, %rbx adcxq %rsi, %rbp movq 64(%rsp), %rdx MULXq %rcx, %r13, %r12 adoxq %r13, %rdi adcxq %r12, %r11 MULXq %rax, %r13, %r12 adoxq %r13, %r11 adcxq %r12, %rbx MULXq %r8, %r13, %r12 adoxq %r13, %rbx adcxq %r12, %rbp MULXq %r9, %rdx, %r12 adoxq %rdx, %rbp adcxq %rsi, %r12 adoxq %rsi, %r12 movq 72(%rsp), %rdx MULXq %rcx, %r14, %r13 adoxq %r14, %r11 adcxq %r13, %rbx MULXq %rax, %r14, %r13 adoxq %r14, %rbx adcxq %r13, %rbp MULXq %r8, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %r9, %rdx, %r13 adoxq %rdx, %r12 adcxq %rsi, %r13 adoxq %rsi, %r13 movq 80(%rsp), %rdx MULXq %rcx, %r14, %rcx adoxq %r14, %rbx adcxq %rcx, %rbp MULXq %rax, %rcx, %rax adoxq %rcx, %rbp adcxq %rax, %r12 MULXq %r8, %rcx, %rax adoxq %rcx, %r12 adcxq %rax, %r13 MULXq %r9, %rcx, %rax adoxq %rcx, %r13 adcxq %rsi, %rax adoxq %rsi, %rax movq $38, %rdx MULXq %rbp, %r8, %rcx adoxq %r8, %r10 adcxq %rcx, %rdi MULXq %r12, %r8, %rcx adoxq %r8, %rdi adcxq %rcx, %r11 MULXq %r13, %r8, %rcx adoxq %r8, %r11 adcxq %rcx, %rbx MULXq %rax, %rcx, %rax adoxq %rcx, %rbx adcxq %rsi, %rax adoxq %rsi, %rax imulq $38, %rax, %rax addq %rax, %r10 adcq %rsi, %rdi adcq %rsi, %r11 adcq %rsi, %rbx sbbq %rsi, %rsi andq $38, %rsi addq %rsi, %r10 leaq (%rbx,%rbx), %rax sarq $63, %rbx shrq $1, %rax andq $19, %rbx addq $19, %rbx addq %rbx, %r10 adcq $0, %rdi adcq $0, %r11 adcq $0, %rax leaq (%rax,%rax), %rcx sarq $63, %rax shrq $1, %rcx notq %rax andq $19, %rax subq %rax, %r10 sbbq $0, %rdi sbbq $0, %r11 sbbq $0, %rcx movq (%rsp), %rax movq %r10, (%rax) movq %rdi, 8(%rax) movq %r11, 16(%rax) movq %rcx, 24(%rax) xorq %rax, %rax movq 352(%rsp), %rbx movq 360(%rsp), %rbp movq 368(%rsp), %r12 movq 376(%rsp), %r13 movq 384(%rsp), %r14 movq 392(%rsp), %r15 movq 400(%rsp), %rsp ret _jade_scalarmult_curve25519_amd64_mulx: jade_scalarmult_curve25519_amd64_mulx: movq %rsp, %rax leaq -408(%rsp), %rsp andq $-8, %rsp movq %rax, 400(%rsp) movq %rbx, 352(%rsp) movq %rbp, 360(%rsp) movq %r12, 368(%rsp) movq %r13, 376(%rsp) movq %r14, 384(%rsp) movq %r15, 392(%rsp) movq %rdi, (%rsp) movq (%rsi), %rax movq %rax, 24(%rsp) movq 8(%rsi), %rax movq %rax, 32(%rsp) movq 16(%rsi), %rax movq %rax, 40(%rsp) movq 24(%rsi), %rax movq %rax, 48(%rsp) andb $-8, 24(%rsp) andb $127, 55(%rsp) orb $64, 55(%rsp) movq (%rdx), %rcx movq 8(%rdx), %r8 movq 16(%rdx), %r10 movq 24(%rdx), %rdx movq $9223372036854775807, %rax andq %rax, %rdx xorq %r11, %r11 movq $1, 56(%rsp) movq $0, %rdi movq %rcx, 88(%rsp) movq %r8, 96(%rsp) movq %r10, 104(%rsp) movq %rdx, 112(%rsp) movq $1, 120(%rsp) movq %r11, 64(%rsp) movq %r11, %r9 movq %r11, 128(%rsp) movq %r11, 72(%rsp) movq %r11, %rax movq %r11, 136(%rsp) movq %r11, 80(%rsp) movq %r11, %rsi movq %r11, 144(%rsp) movq %rcx, 152(%rsp) movq %r8, 160(%rsp) movq %r10, 168(%rsp) movq %rdx, 176(%rsp) movq $255, %rcx movq $0, 8(%rsp) Ljade_scalarmult_curve25519_amd64_mulx$9: addq $-1, %rcx movq %rcx, 16(%rsp) movq %rcx, %rdx shrq $3, %rdx movzbq 24(%rsp,%rdx), %rdx andq $7, %rcx shrq %cl, %rdx andq $1, %rdx movq 8(%rsp), %r8 xorq %rdx, %r8 xorq %rcx, %rcx subq %r8, %rcx movq 120(%rsp), %r8 movq 128(%rsp), %r10 movq 136(%rsp), %r11 movq 144(%rsp), %rbx movq %rdi, %rbp movq %r9, %r12 movq %rax, %r13 movq %rsi, %r14 xorq %r8, %rbp xorq %r10, %r12 xorq %r11, %r13 xorq %rbx, %r14 andq %rcx, %rbp andq %rcx, %r12 andq %rcx, %r13 andq %rcx, %r14 xorq %rbp, %rdi xorq %rbp, %r8 movq %r8, 120(%rsp) xorq %r12, %r9 xorq %r12, %r10 movq %r10, 128(%rsp) xorq %r13, %rax xorq %r13, %r11 movq %r11, 136(%rsp) xorq %r14, %rsi xorq %r14, %rbx movq %rbx, 144(%rsp) movq 88(%rsp), %r11 movq 96(%rsp), %rbx movq 104(%rsp), %r8 movq 112(%rsp), %r10 movq 56(%rsp), %rbp movq %r11, %r12 xorq %rbp, %r12 andq %rcx, %r12 xorq %r12, %rbp xorq %r12, %r11 movq %rbp, 56(%rsp) movq %r11, 88(%rsp) movq 64(%rsp), %r11 movq %rbx, %rbp xorq %r11, %rbp andq %rcx, %rbp xorq %rbp, %r11 xorq %rbp, %rbx movq %r11, 64(%rsp) movq %rbx, 96(%rsp) movq 72(%rsp), %r11 movq %r8, %rbx xorq %r11, %rbx andq %rcx, %rbx xorq %rbx, %r11 xorq %rbx, %r8 movq %r11, 72(%rsp) movq %r8, 104(%rsp) movq 80(%rsp), %r8 movq %r10, %r11 xorq %r8, %r11 andq %rcx, %r11 xorq %r11, %r8 xorq %r11, %r10 movq %r8, 80(%rsp) movq %r10, 112(%rsp) movq %rdx, 8(%rsp) xorq %rcx, %rcx movq 56(%rsp), %rdx movq 64(%rsp), %r8 movq 72(%rsp), %r10 movq 80(%rsp), %r11 subq %rdi, %rdx sbbq %r9, %r8 sbbq %rax, %r10 sbbq %rsi, %r11 sbbq %rcx, %rcx andq $38, %rcx subq %rcx, %rdx sbbq $0, %r8 sbbq $0, %r10 sbbq $0, %r11 sbbq %rcx, %rcx andq $38, %rcx subq %rcx, %rdx movq %rdx, 184(%rsp) movq %r8, 192(%rsp) movq %r10, 200(%rsp) movq %r11, 208(%rsp) xorq %rcx, %rcx addq 56(%rsp), %rdi adcq 64(%rsp), %r9 adcq 72(%rsp), %rax adcq 80(%rsp), %rsi sbbq %rcx, %rcx andq $38, %rcx addq %rcx, %rdi adcq $0, %r9 adcq $0, %rax adcq $0, %rsi sbbq %rcx, %rcx andq $38, %rcx addq %rcx, %rdi movq %rdi, 216(%rsp) movq %r9, 224(%rsp) movq %rax, 232(%rsp) movq %rsi, 240(%rsp) movq 88(%rsp), %rax movq 96(%rsp), %rcx movq 104(%rsp), %rdx movq 112(%rsp), %rsi xorq %rdi, %rdi subq 120(%rsp), %rax sbbq 128(%rsp), %rcx sbbq 136(%rsp), %rdx sbbq 144(%rsp), %rsi sbbq %rdi, %rdi andq $38, %rdi subq %rdi, %rax sbbq $0, %rcx sbbq $0, %rdx sbbq $0, %rsi sbbq %rdi, %rdi andq $38, %rdi subq %rdi, %rax movq %rax, 248(%rsp) movq %rcx, 256(%rsp) movq %rdx, 264(%rsp) movq %rsi, 272(%rsp) movq 88(%rsp), %rax movq 96(%rsp), %rcx movq 104(%rsp), %rdx movq 112(%rsp), %rsi xorq %rdi, %rdi addq 120(%rsp), %rax adcq 128(%rsp), %rcx adcq 136(%rsp), %rdx adcq 144(%rsp), %rsi sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %rax adcq $0, %rcx adcq $0, %rdx adcq $0, %rsi sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %rax movq %rax, 280(%rsp) movq %rcx, 288(%rsp) movq %rdx, 296(%rsp) movq %rsi, 304(%rsp) movq 248(%rsp), %r9 movq 256(%rsp), %r10 movq 264(%rsp), %r11 movq 272(%rsp), %rbx xorq %rax, %rax movq 216(%rsp), %rdx MULXq %r9, %rsi, %rcx MULXq %r10, %r8, %rdi adcxq %r8, %rcx MULXq %r11, %rbp, %r8 adcxq %rbp, %rdi MULXq %rbx, %rdx, %rbp adcxq %rdx, %r8 adcxq %rax, %rbp movq 224(%rsp), %rdx MULXq %r9, %r13, %r12 adoxq %r13, %rcx adcxq %r12, %rdi MULXq %r10, %r13, %r12 adoxq %r13, %rdi adcxq %r12, %r8 MULXq %r11, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %rbp MULXq %rbx, %rdx, %r12 adoxq %rdx, %rbp adcxq %rax, %r12 adoxq %rax, %r12 movq 232(%rsp), %rdx MULXq %r9, %r14, %r13 adoxq %r14, %rdi adcxq %r13, %r8 MULXq %r10, %r14, %r13 adoxq %r14, %r8 adcxq %r13, %rbp MULXq %r11, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rbx, %rdx, %r13 adoxq %rdx, %r12 adcxq %rax, %r13 adoxq %rax, %r13 movq 240(%rsp), %rdx MULXq %r9, %r14, %r9 adoxq %r14, %r8 adcxq %r9, %rbp MULXq %r10, %r10, %r9 adoxq %r10, %rbp adcxq %r9, %r12 MULXq %r11, %r10, %r9 adoxq %r10, %r12 adcxq %r9, %r13 MULXq %rbx, %rdx, %r9 adoxq %rdx, %r13 adcxq %rax, %r9 adoxq %rax, %r9 movq $38, %rdx MULXq %rbp, %r11, %r10 adoxq %r11, %rsi adcxq %r10, %rcx MULXq %r12, %r11, %r10 adoxq %r11, %rcx adcxq %r10, %rdi MULXq %r13, %r11, %r10 adoxq %r11, %rdi adcxq %r10, %r8 MULXq %r9, %r9, %rdx adoxq %r9, %r8 adcxq %rax, %rdx adoxq %rax, %rdx imulq $38, %rdx, %rdx addq %rdx, %rsi adcq %rax, %rcx adcq %rax, %rdi adcq %rax, %r8 sbbq %rax, %rax andq $38, %rax addq %rax, %rsi movq %rsi, 248(%rsp) movq %rcx, 256(%rsp) movq %rdi, 264(%rsp) movq %r8, 272(%rsp) movq 184(%rsp), %r9 movq 192(%rsp), %r10 movq 200(%rsp), %r11 movq 208(%rsp), %rbx xorq %rax, %rax movq 280(%rsp), %rdx MULXq %r9, %rsi, %rcx MULXq %r10, %r8, %rdi adcxq %r8, %rcx MULXq %r11, %rbp, %r8 adcxq %rbp, %rdi MULXq %rbx, %rdx, %rbp adcxq %rdx, %r8 adcxq %rax, %rbp movq 288(%rsp), %rdx MULXq %r9, %r13, %r12 adoxq %r13, %rcx adcxq %r12, %rdi MULXq %r10, %r13, %r12 adoxq %r13, %rdi adcxq %r12, %r8 MULXq %r11, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %rbp MULXq %rbx, %rdx, %r12 adoxq %rdx, %rbp adcxq %rax, %r12 adoxq %rax, %r12 movq 296(%rsp), %rdx MULXq %r9, %r14, %r13 adoxq %r14, %rdi adcxq %r13, %r8 MULXq %r10, %r14, %r13 adoxq %r14, %r8 adcxq %r13, %rbp MULXq %r11, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rbx, %rdx, %r13 adoxq %rdx, %r12 adcxq %rax, %r13 adoxq %rax, %r13 movq 304(%rsp), %rdx MULXq %r9, %r14, %r9 adoxq %r14, %r8 adcxq %r9, %rbp MULXq %r10, %r10, %r9 adoxq %r10, %rbp adcxq %r9, %r12 MULXq %r11, %r10, %r9 adoxq %r10, %r12 adcxq %r9, %r13 MULXq %rbx, %rdx, %r9 adoxq %rdx, %r13 adcxq %rax, %r9 adoxq %rax, %r9 movq $38, %rdx MULXq %rbp, %r11, %r10 adoxq %r11, %rsi adcxq %r10, %rcx MULXq %r12, %r11, %r10 adoxq %r11, %rcx adcxq %r10, %rdi MULXq %r13, %r11, %r10 adoxq %r11, %rdi adcxq %r10, %r8 MULXq %r9, %r9, %rdx adoxq %r9, %r8 adcxq %rax, %rdx adoxq %rax, %rdx imulq $38, %rdx, %rdx addq %rdx, %rsi adcq %rax, %rcx adcq %rax, %rdi adcq %rax, %r8 sbbq %rax, %rax andq $38, %rax addq %rax, %rsi movq %rsi, 280(%rsp) movq %rcx, 288(%rsp) movq %rdi, 296(%rsp) movq %r8, 304(%rsp) movq 216(%rsp), %rdx movq 224(%rsp), %r11 movq 232(%rsp), %r13 movq 240(%rsp), %rbx xorq %rax, %rax MULXq %rdx, %rsi, %rcx MULXq %r11, %r8, %rdi MULXq %r13, %r10, %r9 adcxq %r10, %rdi MULXq %rbx, %rdx, %r10 adcxq %rdx, %r9 movq %r11, %rdx MULXq %r13, %rbp, %r11 adoxq %rbp, %r9 adcxq %r11, %r10 MULXq %rbx, %rbp, %r11 adoxq %rbp, %r10 MULXq %rdx, %r12, %rbp movq %r13, %rdx MULXq %rbx, %r14, %r13 adcxq %r14, %r11 adoxq %rax, %r11 adcxq %rax, %r13 adoxq %rax, %r13 MULXq %rdx, %r15, %r14 movq %rbx, %rdx MULXq %rdx, %rdx, %rbx adcxq %r8, %r8 adoxq %rcx, %r8 adcxq %rdi, %rdi adoxq %r12, %rdi adcxq %r9, %r9 adoxq %rbp, %r9 adcxq %r10, %r10 adoxq %r15, %r10 adcxq %r11, %r11 adoxq %r14, %r11 adcxq %r13, %r13 adoxq %rdx, %r13 adcxq %rax, %rbx adoxq %rax, %rbx movq $38, %rdx MULXq %r10, %r10, %rcx adoxq %r10, %rsi adcxq %rcx, %r8 MULXq %r11, %r10, %rcx adoxq %r10, %r8 adcxq %rcx, %rdi MULXq %r13, %r10, %rcx adoxq %r10, %rdi adcxq %rcx, %r9 MULXq %rbx, %rdx, %rcx adoxq %rdx, %r9 adcxq %rax, %rcx adoxq %rax, %rcx imulq $38, %rcx, %rcx addq %rcx, %rsi adcq %rax, %r8 adcq %rax, %rdi adcq %rax, %r9 sbbq %rax, %rax andq $38, %rax addq %rax, %rsi movq %rsi, 216(%rsp) movq %r8, 224(%rsp) movq %rdi, 232(%rsp) movq %r9, 240(%rsp) movq 184(%rsp), %rdx movq 192(%rsp), %r11 movq 200(%rsp), %r13 movq 208(%rsp), %rbx xorq %r8, %r8 MULXq %rdx, %rax, %r9 MULXq %r11, %rsi, %rcx MULXq %r13, %r10, %rdi adcxq %r10, %rcx MULXq %rbx, %rdx, %r10 adcxq %rdx, %rdi movq %r11, %rdx MULXq %r13, %rbp, %r11 adoxq %rbp, %rdi adcxq %r11, %r10 MULXq %rbx, %rbp, %r11 adoxq %rbp, %r10 MULXq %rdx, %r12, %rbp movq %r13, %rdx MULXq %rbx, %r14, %r13 adcxq %r14, %r11 adoxq %r8, %r11 adcxq %r8, %r13 adoxq %r8, %r13 MULXq %rdx, %r15, %r14 movq %rbx, %rdx MULXq %rdx, %rdx, %rbx adcxq %rsi, %rsi adoxq %r9, %rsi adcxq %rcx, %rcx adoxq %r12, %rcx adcxq %rdi, %rdi adoxq %rbp, %rdi adcxq %r10, %r10 adoxq %r15, %r10 adcxq %r11, %r11 adoxq %r14, %r11 adcxq %r13, %r13 adoxq %rdx, %r13 adcxq %r8, %rbx adoxq %r8, %rbx movq $38, %rdx MULXq %r10, %r10, %r9 adoxq %r10, %rax adcxq %r9, %rsi MULXq %r11, %r10, %r9 adoxq %r10, %rsi adcxq %r9, %rcx MULXq %r13, %r10, %r9 adoxq %r10, %rcx adcxq %r9, %rdi MULXq %rbx, %r9, %rdx adoxq %r9, %rdi adcxq %r8, %rdx adoxq %r8, %rdx imulq $38, %rdx, %rdx addq %rdx, %rax adcq %r8, %rsi adcq %r8, %rcx adcq %r8, %rdi sbbq %r8, %r8 andq $38, %r8 addq %r8, %rax movq 248(%rsp), %rdx movq 256(%rsp), %r8 movq 264(%rsp), %r9 movq 272(%rsp), %r10 xorq %r11, %r11 addq 280(%rsp), %rdx adcq 288(%rsp), %r8 adcq 296(%rsp), %r9 adcq 304(%rsp), %r10 sbbq %r11, %r11 andq $38, %r11 addq %r11, %rdx adcq $0, %r8 adcq $0, %r9 adcq $0, %r10 sbbq %r11, %r11 andq $38, %r11 addq %r11, %rdx movq %rdx, 184(%rsp) movq %r8, 192(%rsp) movq %r9, 200(%rsp) movq %r10, 208(%rsp) movq 248(%rsp), %rdx movq 256(%rsp), %r8 movq 264(%rsp), %r9 movq 272(%rsp), %r10 xorq %r11, %r11 subq 280(%rsp), %rdx sbbq 288(%rsp), %r8 sbbq 296(%rsp), %r9 sbbq 304(%rsp), %r10 sbbq %r11, %r11 andq $38, %r11 subq %r11, %rdx sbbq $0, %r8 sbbq $0, %r9 sbbq $0, %r10 sbbq %r11, %r11 andq $38, %r11 subq %r11, %rdx movq %rdx, 280(%rsp) movq %r8, 288(%rsp) movq %r9, 296(%rsp) movq %r10, 304(%rsp) xorq %rdx, %rdx movq 216(%rsp), %r8 movq 224(%rsp), %r9 movq 232(%rsp), %r10 movq 240(%rsp), %r11 subq %rax, %r8 sbbq %rsi, %r9 sbbq %rcx, %r10 sbbq %rdi, %r11 sbbq %rdx, %rdx andq $38, %rdx subq %rdx, %r8 sbbq $0, %r9 sbbq $0, %r10 sbbq $0, %r11 sbbq %rdx, %rdx andq $38, %rdx subq %rdx, %r8 movq %r8, 248(%rsp) movq %r9, 256(%rsp) movq %r10, 264(%rsp) movq %r11, 272(%rsp) xorq %r8, %r8 movq 216(%rsp), %rdx MULXq %rax, %r10, %r9 MULXq %rsi, %rbx, %r11 adcxq %rbx, %r9 MULXq %rcx, %rbp, %rbx adcxq %rbp, %r11 MULXq %rdi, %rdx, %rbp adcxq %rdx, %rbx adcxq %r8, %rbp movq 224(%rsp), %rdx MULXq %rax, %r13, %r12 adoxq %r13, %r9 adcxq %r12, %r11 MULXq %rsi, %r13, %r12 adoxq %r13, %r11 adcxq %r12, %rbx MULXq %rcx, %r13, %r12 adoxq %r13, %rbx adcxq %r12, %rbp MULXq %rdi, %rdx, %r12 adoxq %rdx, %rbp adcxq %r8, %r12 adoxq %r8, %r12 movq 232(%rsp), %rdx MULXq %rax, %r14, %r13 adoxq %r14, %r11 adcxq %r13, %rbx MULXq %rsi, %r14, %r13 adoxq %r14, %rbx adcxq %r13, %rbp MULXq %rcx, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rdi, %rdx, %r13 adoxq %rdx, %r12 adcxq %r8, %r13 adoxq %r8, %r13 movq 240(%rsp), %rdx MULXq %rax, %r14, %rax adoxq %r14, %rbx adcxq %rax, %rbp MULXq %rsi, %rsi, %rax adoxq %rsi, %rbp adcxq %rax, %r12 MULXq %rcx, %rcx, %rax adoxq %rcx, %r12 adcxq %rax, %r13 MULXq %rdi, %rcx, %rax adoxq %rcx, %r13 adcxq %r8, %rax adoxq %r8, %rax movq $38, %rdx MULXq %rbp, %rsi, %rcx adoxq %rsi, %r10 adcxq %rcx, %r9 MULXq %r12, %rsi, %rcx adoxq %rsi, %r9 adcxq %rcx, %r11 MULXq %r13, %rsi, %rcx adoxq %rsi, %r11 adcxq %rcx, %rbx MULXq %rax, %rcx, %rax adoxq %rcx, %rbx adcxq %r8, %rax adoxq %r8, %rax imulq $38, %rax, %rax addq %rax, %r10 adcq %r8, %r9 adcq %r8, %r11 adcq %r8, %rbx sbbq %r8, %r8 andq $38, %r8 addq %r8, %r10 movq %r10, 56(%rsp) movq %r9, 64(%rsp) movq %r11, 72(%rsp) movq %rbx, 80(%rsp) movq 280(%rsp), %rdx movq 288(%rsp), %r11 movq 296(%rsp), %r13 movq 304(%rsp), %rbx xorq %rax, %rax MULXq %rdx, %rsi, %rcx MULXq %r11, %r8, %rdi MULXq %r13, %r10, %r9 adcxq %r10, %rdi MULXq %rbx, %rdx, %r10 adcxq %rdx, %r9 movq %r11, %rdx MULXq %r13, %rbp, %r11 adoxq %rbp, %r9 adcxq %r11, %r10 MULXq %rbx, %rbp, %r11 adoxq %rbp, %r10 MULXq %rdx, %r12, %rbp movq %r13, %rdx MULXq %rbx, %r14, %r13 adcxq %r14, %r11 adoxq %rax, %r11 adcxq %rax, %r13 adoxq %rax, %r13 MULXq %rdx, %r15, %r14 movq %rbx, %rdx MULXq %rdx, %rdx, %rbx adcxq %r8, %r8 adoxq %rcx, %r8 adcxq %rdi, %rdi adoxq %r12, %rdi adcxq %r9, %r9 adoxq %rbp, %r9 adcxq %r10, %r10 adoxq %r15, %r10 adcxq %r11, %r11 adoxq %r14, %r11 adcxq %r13, %r13 adoxq %rdx, %r13 adcxq %rax, %rbx adoxq %rax, %rbx movq $38, %rdx MULXq %r10, %r10, %rcx adoxq %r10, %rsi adcxq %rcx, %r8 MULXq %r11, %r10, %rcx adoxq %r10, %r8 adcxq %rcx, %rdi MULXq %r13, %r10, %rcx adoxq %r10, %rdi adcxq %rcx, %r9 MULXq %rbx, %rdx, %rcx adoxq %rdx, %r9 adcxq %rax, %rcx adoxq %rax, %rcx imulq $38, %rcx, %rcx addq %rcx, %rsi adcq %rax, %r8 adcq %rax, %rdi adcq %rax, %r9 sbbq %rax, %rax andq $38, %rax addq %rax, %rsi movq %rsi, 280(%rsp) movq %r8, 288(%rsp) movq %rdi, 296(%rsp) movq %r9, 304(%rsp) movq $121665, %rdx MULXq 248(%rsp), %rcx, %rax MULXq 256(%rsp), %rdi, %rsi addq %rdi, %rax MULXq 264(%rsp), %r8, %rdi adcq %r8, %rsi MULXq 272(%rsp), %r9, %r8 adcq %r9, %rdi adcq $0, %r8 imulq $38, %r8, %r8 addq %r8, %rcx adcq $0, %rax adcq $0, %rsi adcq $0, %rdi sbbq %rdx, %rdx andq $38, %rdx addq %rdx, %rcx movq %rcx, 312(%rsp) movq %rax, 320(%rsp) movq %rsi, 328(%rsp) movq %rdi, 336(%rsp) movq 184(%rsp), %rdx movq 192(%rsp), %r11 movq 200(%rsp), %r13 movq 208(%rsp), %rbx xorq %rax, %rax MULXq %rdx, %rsi, %rcx MULXq %r11, %r8, %rdi MULXq %r13, %r10, %r9 adcxq %r10, %rdi MULXq %rbx, %rdx, %r10 adcxq %rdx, %r9 movq %r11, %rdx MULXq %r13, %rbp, %r11 adoxq %rbp, %r9 adcxq %r11, %r10 MULXq %rbx, %rbp, %r11 adoxq %rbp, %r10 MULXq %rdx, %r12, %rbp movq %r13, %rdx MULXq %rbx, %r14, %r13 adcxq %r14, %r11 adoxq %rax, %r11 adcxq %rax, %r13 adoxq %rax, %r13 MULXq %rdx, %r15, %r14 movq %rbx, %rdx MULXq %rdx, %rdx, %rbx adcxq %r8, %r8 adoxq %rcx, %r8 adcxq %rdi, %rdi adoxq %r12, %rdi adcxq %r9, %r9 adoxq %rbp, %r9 adcxq %r10, %r10 adoxq %r15, %r10 adcxq %r11, %r11 adoxq %r14, %r11 adcxq %r13, %r13 adoxq %rdx, %r13 adcxq %rax, %rbx adoxq %rax, %rbx movq $38, %rdx MULXq %r10, %r10, %rcx adoxq %r10, %rsi adcxq %rcx, %r8 MULXq %r11, %r10, %rcx adoxq %r10, %r8 adcxq %rcx, %rdi MULXq %r13, %r10, %rcx adoxq %r10, %rdi adcxq %rcx, %r9 MULXq %rbx, %rdx, %rcx adoxq %rdx, %r9 adcxq %rax, %rcx adoxq %rax, %rcx imulq $38, %rcx, %rcx addq %rcx, %rsi adcq %rax, %r8 adcq %rax, %rdi adcq %rax, %r9 sbbq %rax, %rax andq $38, %rax addq %rax, %rsi movq %rsi, 88(%rsp) movq %r8, 96(%rsp) movq %rdi, 104(%rsp) movq %r9, 112(%rsp) movq 216(%rsp), %rax movq 224(%rsp), %rcx movq 232(%rsp), %rdx movq 240(%rsp), %rsi xorq %rdi, %rdi addq 312(%rsp), %rax adcq 320(%rsp), %rcx adcq 328(%rsp), %rdx adcq 336(%rsp), %rsi sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %rax adcq $0, %rcx adcq $0, %rdx adcq $0, %rsi sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %rax movq %rax, 312(%rsp) movq %rcx, 320(%rsp) movq %rdx, 328(%rsp) movq %rsi, 336(%rsp) movq 280(%rsp), %r9 movq 288(%rsp), %r10 movq 296(%rsp), %r11 movq 304(%rsp), %rbx xorq %rax, %rax movq 152(%rsp), %rdx MULXq %r9, %rsi, %rcx MULXq %r10, %r8, %rdi adcxq %r8, %rcx MULXq %r11, %rbp, %r8 adcxq %rbp, %rdi MULXq %rbx, %rdx, %rbp adcxq %rdx, %r8 adcxq %rax, %rbp movq 160(%rsp), %rdx MULXq %r9, %r13, %r12 adoxq %r13, %rcx adcxq %r12, %rdi MULXq %r10, %r13, %r12 adoxq %r13, %rdi adcxq %r12, %r8 MULXq %r11, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %rbp MULXq %rbx, %rdx, %r12 adoxq %rdx, %rbp adcxq %rax, %r12 adoxq %rax, %r12 movq 168(%rsp), %rdx MULXq %r9, %r14, %r13 adoxq %r14, %rdi adcxq %r13, %r8 MULXq %r10, %r14, %r13 adoxq %r14, %r8 adcxq %r13, %rbp MULXq %r11, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rbx, %rdx, %r13 adoxq %rdx, %r12 adcxq %rax, %r13 adoxq %rax, %r13 movq 176(%rsp), %rdx MULXq %r9, %r14, %r9 adoxq %r14, %r8 adcxq %r9, %rbp MULXq %r10, %r10, %r9 adoxq %r10, %rbp adcxq %r9, %r12 MULXq %r11, %r10, %r9 adoxq %r10, %r12 adcxq %r9, %r13 MULXq %rbx, %rdx, %r9 adoxq %rdx, %r13 adcxq %rax, %r9 adoxq %rax, %r9 movq $38, %rdx MULXq %rbp, %r11, %r10 adoxq %r11, %rsi adcxq %r10, %rcx MULXq %r12, %r11, %r10 adoxq %r11, %rcx adcxq %r10, %rdi MULXq %r13, %r11, %r10 adoxq %r11, %rdi adcxq %r10, %r8 MULXq %r9, %r9, %rdx adoxq %r9, %r8 adcxq %rax, %rdx adoxq %rax, %rdx imulq $38, %rdx, %rdx addq %rdx, %rsi adcq %rax, %rcx adcq %rax, %rdi adcq %rax, %r8 sbbq %rax, %rax andq $38, %rax addq %rax, %rsi movq %rsi, 120(%rsp) movq %rcx, 128(%rsp) movq %rdi, 136(%rsp) movq %r8, 144(%rsp) movq 312(%rsp), %r8 movq 320(%rsp), %r10 movq 328(%rsp), %r11 movq 336(%rsp), %rbx xorq %rcx, %rcx movq 248(%rsp), %rdx MULXq %r8, %rdi, %r9 MULXq %r10, %rsi, %rax adcxq %rsi, %r9 MULXq %r11, %rbp, %rsi adcxq %rbp, %rax MULXq %rbx, %rdx, %rbp adcxq %rdx, %rsi adcxq %rcx, %rbp movq 256(%rsp), %rdx MULXq %r8, %r13, %r12 adoxq %r13, %r9 adcxq %r12, %rax MULXq %r10, %r13, %r12 adoxq %r13, %rax adcxq %r12, %rsi MULXq %r11, %r13, %r12 adoxq %r13, %rsi adcxq %r12, %rbp MULXq %rbx, %rdx, %r12 adoxq %rdx, %rbp adcxq %rcx, %r12 adoxq %rcx, %r12 movq 264(%rsp), %rdx MULXq %r8, %r14, %r13 adoxq %r14, %rax adcxq %r13, %rsi MULXq %r10, %r14, %r13 adoxq %r14, %rsi adcxq %r13, %rbp MULXq %r11, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rbx, %rdx, %r13 adoxq %rdx, %r12 adcxq %rcx, %r13 adoxq %rcx, %r13 movq 272(%rsp), %rdx MULXq %r8, %r14, %r8 adoxq %r14, %rsi adcxq %r8, %rbp MULXq %r10, %r10, %r8 adoxq %r10, %rbp adcxq %r8, %r12 MULXq %r11, %r10, %r8 adoxq %r10, %r12 adcxq %r8, %r13 MULXq %rbx, %rdx, %r8 adoxq %rdx, %r13 adcxq %rcx, %r8 adoxq %rcx, %r8 movq $38, %rdx MULXq %rbp, %r11, %r10 adoxq %r11, %rdi adcxq %r10, %r9 MULXq %r12, %r11, %r10 adoxq %r11, %r9 adcxq %r10, %rax MULXq %r13, %r11, %r10 adoxq %r11, %rax adcxq %r10, %rsi MULXq %r8, %r8, %rdx adoxq %r8, %rsi adcxq %rcx, %rdx adoxq %rcx, %rdx imulq $38, %rdx, %rdx addq %rdx, %rdi adcq %rcx, %r9 adcq %rcx, %rax adcq %rcx, %rsi sbbq %rcx, %rcx andq $38, %rcx addq %rcx, %rdi movq 16(%rsp), %rcx cmpq $0, %rcx jnbe Ljade_scalarmult_curve25519_amd64_mulx$9 movq %rdi, 120(%rsp) movq %r9, 128(%rsp) movq %rax, 136(%rsp) movq %rsi, 144(%rsp) xorq %r10, %r10 movq %rdi, %rdx MULXq %rdx, %r11, %rbx MULXq %r9, %r8, %rdi MULXq %rax, %rbp, %rcx adcxq %rbp, %rdi MULXq %rsi, %rdx, %rbp adcxq %rdx, %rcx movq %r9, %rdx MULXq %rax, %r12, %r9 adoxq %r12, %rcx adcxq %r9, %rbp MULXq %rsi, %r12, %r9 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rax, %rdx MULXq %rsi, %r14, %rax adcxq %r14, %r9 adoxq %r10, %r9 adcxq %r10, %rax adoxq %r10, %rax MULXq %rdx, %r15, %r14 movq %rsi, %rdx MULXq %rdx, %rdx, %rsi adcxq %r8, %r8 adoxq %rbx, %r8 adcxq %rdi, %rdi adoxq %r13, %rdi adcxq %rcx, %rcx adoxq %r12, %rcx adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r9, %r9 adoxq %r14, %r9 adcxq %rax, %rax adoxq %rdx, %rax adcxq %r10, %rsi adoxq %r10, %rsi movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %r11 adcxq %rbx, %r8 MULXq %r9, %rbx, %r9 adoxq %rbx, %r8 adcxq %r9, %rdi MULXq %rax, %r9, %rax adoxq %r9, %rdi adcxq %rax, %rcx MULXq %rsi, %rdx, %rax adoxq %rdx, %rcx adcxq %r10, %rax adoxq %r10, %rax imulq $38, %rax, %rax addq %rax, %r11 adcq %r10, %r8 adcq %r10, %rdi adcq %r10, %rcx sbbq %r10, %r10 andq $38, %r10 addq %r10, %r11 movq %r11, 88(%rsp) movq %r8, 96(%rsp) movq %rdi, 104(%rsp) movq %rcx, 112(%rsp) xorq %rsi, %rsi movq %r11, %rdx MULXq %rdx, %r9, %rbx MULXq %r8, %r11, %r10 MULXq %rdi, %rbp, %rax adcxq %rbp, %r10 MULXq %rcx, %rdx, %rbp adcxq %rdx, %rax movq %r8, %rdx MULXq %rdi, %r12, %r8 adoxq %r12, %rax adcxq %r8, %rbp MULXq %rcx, %r12, %r8 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rdi, %rdx MULXq %rcx, %r14, %rdi adcxq %r14, %r8 adoxq %rsi, %r8 adcxq %rsi, %rdi adoxq %rsi, %rdi MULXq %rdx, %r15, %r14 movq %rcx, %rdx MULXq %rdx, %rdx, %rcx adcxq %r11, %r11 adoxq %rbx, %r11 adcxq %r10, %r10 adoxq %r13, %r10 adcxq %rax, %rax adoxq %r12, %rax adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r8, %r8 adoxq %r14, %r8 adcxq %rdi, %rdi adoxq %rdx, %rdi adcxq %rsi, %rcx adoxq %rsi, %rcx movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %r9 adcxq %rbx, %r11 MULXq %r8, %rbx, %r8 adoxq %rbx, %r11 adcxq %r8, %r10 MULXq %rdi, %r8, %rdi adoxq %r8, %r10 adcxq %rdi, %rax MULXq %rcx, %rdx, %rcx adoxq %rdx, %rax adcxq %rsi, %rcx adoxq %rsi, %rcx imulq $38, %rcx, %rcx addq %rcx, %r9 adcq %rsi, %r11 adcq %rsi, %r10 adcq %rsi, %rax sbbq %rsi, %rsi andq $38, %rsi addq %rsi, %r9 xorq %rcx, %rcx movq %r9, %rdx MULXq %rdx, %rsi, %rbx MULXq %r11, %r8, %rdi MULXq %r10, %rbp, %r9 adcxq %rbp, %rdi MULXq %rax, %rdx, %rbp adcxq %rdx, %r9 movq %r11, %rdx MULXq %r10, %r12, %r11 adoxq %r12, %r9 adcxq %r11, %rbp MULXq %rax, %r12, %r11 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r10, %rdx MULXq %rax, %r14, %r10 adcxq %r14, %r11 adoxq %rcx, %r11 adcxq %rcx, %r10 adoxq %rcx, %r10 MULXq %rdx, %r15, %r14 movq %rax, %rdx MULXq %rdx, %rdx, %rax adcxq %r8, %r8 adoxq %rbx, %r8 adcxq %rdi, %rdi adoxq %r13, %rdi adcxq %r9, %r9 adoxq %r12, %r9 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r11, %r11 adoxq %r14, %r11 adcxq %r10, %r10 adoxq %rdx, %r10 adcxq %rcx, %rax adoxq %rcx, %rax movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rsi adcxq %rbx, %r8 MULXq %r11, %rbx, %r11 adoxq %rbx, %r8 adcxq %r11, %rdi MULXq %r10, %r11, %r10 adoxq %r11, %rdi adcxq %r10, %r9 MULXq %rax, %rdx, %rax adoxq %rdx, %r9 adcxq %rcx, %rax adoxq %rcx, %rax imulq $38, %rax, %rax addq %rax, %rsi adcq %rcx, %r8 adcq %rcx, %rdi adcq %rcx, %r9 sbbq %rcx, %rcx andq $38, %rcx addq %rcx, %rsi xorq %r10, %r10 movq 120(%rsp), %rdx MULXq %rsi, %rbx, %r11 MULXq %r8, %rcx, %rax adcxq %rcx, %r11 MULXq %rdi, %rbp, %rcx adcxq %rbp, %rax MULXq %r9, %rdx, %rbp adcxq %rdx, %rcx adcxq %r10, %rbp movq 128(%rsp), %rdx MULXq %rsi, %r13, %r12 adoxq %r13, %r11 adcxq %r12, %rax MULXq %r8, %r13, %r12 adoxq %r13, %rax adcxq %r12, %rcx MULXq %rdi, %r13, %r12 adoxq %r13, %rcx adcxq %r12, %rbp MULXq %r9, %rdx, %r12 adoxq %rdx, %rbp adcxq %r10, %r12 adoxq %r10, %r12 movq 136(%rsp), %rdx MULXq %rsi, %r14, %r13 adoxq %r14, %rax adcxq %r13, %rcx MULXq %r8, %r14, %r13 adoxq %r14, %rcx adcxq %r13, %rbp MULXq %rdi, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %r9, %rdx, %r13 adoxq %rdx, %r12 adcxq %r10, %r13 adoxq %r10, %r13 movq 144(%rsp), %rdx MULXq %rsi, %r14, %rsi adoxq %r14, %rcx adcxq %rsi, %rbp MULXq %r8, %r8, %rsi adoxq %r8, %rbp adcxq %rsi, %r12 MULXq %rdi, %rdi, %rsi adoxq %rdi, %r12 adcxq %rsi, %r13 MULXq %r9, %rdx, %rsi adoxq %rdx, %r13 adcxq %r10, %rsi adoxq %r10, %rsi movq $38, %rdx MULXq %rbp, %r8, %rdi adoxq %r8, %rbx adcxq %rdi, %r11 MULXq %r12, %r8, %rdi adoxq %r8, %r11 adcxq %rdi, %rax MULXq %r13, %r8, %rdi adoxq %r8, %rax adcxq %rdi, %rcx MULXq %rsi, %rsi, %rdx adoxq %rsi, %rcx adcxq %r10, %rdx adoxq %r10, %rdx imulq $38, %rdx, %rdx addq %rdx, %rbx adcq %r10, %r11 adcq %r10, %rax adcq %r10, %rcx sbbq %r10, %r10 andq $38, %r10 addq %r10, %rbx movq %rbx, 120(%rsp) movq %r11, 128(%rsp) movq %rax, 136(%rsp) movq %rcx, 144(%rsp) xorq %rsi, %rsi movq 88(%rsp), %rdx MULXq %rbx, %rdi, %r10 MULXq %r11, %r8, %r9 adcxq %r8, %r10 MULXq %rax, %rbp, %r8 adcxq %rbp, %r9 MULXq %rcx, %rdx, %rbp adcxq %rdx, %r8 adcxq %rsi, %rbp movq 96(%rsp), %rdx MULXq %rbx, %r13, %r12 adoxq %r13, %r10 adcxq %r12, %r9 MULXq %r11, %r13, %r12 adoxq %r13, %r9 adcxq %r12, %r8 MULXq %rax, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %rbp MULXq %rcx, %rdx, %r12 adoxq %rdx, %rbp adcxq %rsi, %r12 adoxq %rsi, %r12 movq 104(%rsp), %rdx MULXq %rbx, %r14, %r13 adoxq %r14, %r9 adcxq %r13, %r8 MULXq %r11, %r14, %r13 adoxq %r14, %r8 adcxq %r13, %rbp MULXq %rax, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rcx, %rdx, %r13 adoxq %rdx, %r12 adcxq %rsi, %r13 adoxq %rsi, %r13 movq 112(%rsp), %rdx MULXq %rbx, %r14, %rbx adoxq %r14, %r8 adcxq %rbx, %rbp MULXq %r11, %rbx, %r11 adoxq %rbx, %rbp adcxq %r11, %r12 MULXq %rax, %r11, %rax adoxq %r11, %r12 adcxq %rax, %r13 MULXq %rcx, %rcx, %rax adoxq %rcx, %r13 adcxq %rsi, %rax adoxq %rsi, %rax movq $38, %rdx MULXq %rbp, %r11, %rcx adoxq %r11, %rdi adcxq %rcx, %r10 MULXq %r12, %r11, %rcx adoxq %r11, %r10 adcxq %rcx, %r9 MULXq %r13, %r11, %rcx adoxq %r11, %r9 adcxq %rcx, %r8 MULXq %rax, %rcx, %rax adoxq %rcx, %r8 adcxq %rsi, %rax adoxq %rsi, %rax imulq $38, %rax, %rax addq %rax, %rdi adcq %rsi, %r10 adcq %rsi, %r9 adcq %rsi, %r8 sbbq %rsi, %rsi andq $38, %rsi addq %rsi, %rdi movq %rdi, 88(%rsp) movq %r10, 96(%rsp) movq %r9, 104(%rsp) movq %r8, 112(%rsp) xorq %r11, %r11 movq %rdi, %rdx MULXq %rdx, %rax, %rbx MULXq %r10, %rsi, %rcx MULXq %r9, %rbp, %rdi adcxq %rbp, %rcx MULXq %r8, %rdx, %rbp adcxq %rdx, %rdi movq %r10, %rdx MULXq %r9, %r12, %r10 adoxq %r12, %rdi adcxq %r10, %rbp MULXq %r8, %r12, %r10 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r9, %rdx MULXq %r8, %r14, %r9 adcxq %r14, %r10 adoxq %r11, %r10 adcxq %r11, %r9 adoxq %r11, %r9 MULXq %rdx, %r15, %r14 movq %r8, %rdx MULXq %rdx, %rdx, %r8 adcxq %rsi, %rsi adoxq %rbx, %rsi adcxq %rcx, %rcx adoxq %r13, %rcx adcxq %rdi, %rdi adoxq %r12, %rdi adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r10, %r10 adoxq %r14, %r10 adcxq %r9, %r9 adoxq %rdx, %r9 adcxq %r11, %r8 adoxq %r11, %r8 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rax adcxq %rbx, %rsi MULXq %r10, %rbx, %r10 adoxq %rbx, %rsi adcxq %r10, %rcx MULXq %r9, %r10, %r9 adoxq %r10, %rcx adcxq %r9, %rdi MULXq %r8, %r8, %rdx adoxq %r8, %rdi adcxq %r11, %rdx adoxq %r11, %rdx imulq $38, %rdx, %rdx addq %rdx, %rax adcq %r11, %rsi adcq %r11, %rcx adcq %r11, %rdi sbbq %r11, %r11 andq $38, %r11 addq %r11, %rax xorq %r11, %r11 movq 120(%rsp), %rdx MULXq %rax, %rbx, %r10 MULXq %rsi, %r9, %r8 adcxq %r9, %r10 MULXq %rcx, %rbp, %r9 adcxq %rbp, %r8 MULXq %rdi, %rdx, %rbp adcxq %rdx, %r9 adcxq %r11, %rbp movq 128(%rsp), %rdx MULXq %rax, %r13, %r12 adoxq %r13, %r10 adcxq %r12, %r8 MULXq %rsi, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %r9 MULXq %rcx, %r13, %r12 adoxq %r13, %r9 adcxq %r12, %rbp MULXq %rdi, %rdx, %r12 adoxq %rdx, %rbp adcxq %r11, %r12 adoxq %r11, %r12 movq 136(%rsp), %rdx MULXq %rax, %r14, %r13 adoxq %r14, %r8 adcxq %r13, %r9 MULXq %rsi, %r14, %r13 adoxq %r14, %r9 adcxq %r13, %rbp MULXq %rcx, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rdi, %rdx, %r13 adoxq %rdx, %r12 adcxq %r11, %r13 adoxq %r11, %r13 movq 144(%rsp), %rdx MULXq %rax, %r14, %rax adoxq %r14, %r9 adcxq %rax, %rbp MULXq %rsi, %rsi, %rax adoxq %rsi, %rbp adcxq %rax, %r12 MULXq %rcx, %rcx, %rax adoxq %rcx, %r12 adcxq %rax, %r13 MULXq %rdi, %rcx, %rax adoxq %rcx, %r13 adcxq %r11, %rax adoxq %r11, %rax movq $38, %rdx MULXq %rbp, %rsi, %rcx adoxq %rsi, %rbx adcxq %rcx, %r10 MULXq %r12, %rsi, %rcx adoxq %rsi, %r10 adcxq %rcx, %r8 MULXq %r13, %rsi, %rcx adoxq %rsi, %r8 adcxq %rcx, %r9 MULXq %rax, %rcx, %rax adoxq %rcx, %r9 adcxq %r11, %rax adoxq %r11, %rax imulq $38, %rax, %rax addq %rax, %rbx adcq %r11, %r10 adcq %r11, %r8 adcq %r11, %r9 sbbq %r11, %r11 andq $38, %r11 addq %r11, %rbx movq %rbx, 120(%rsp) movq %r10, 128(%rsp) movq %r8, 136(%rsp) movq %r9, 144(%rsp) xorq %r11, %r11 movq %rbx, %rdx MULXq %rdx, %rdi, %rbx MULXq %r10, %rax, %rsi MULXq %r8, %rbp, %rcx adcxq %rbp, %rsi MULXq %r9, %rdx, %rbp adcxq %rdx, %rcx movq %r10, %rdx MULXq %r8, %r12, %r10 adoxq %r12, %rcx adcxq %r10, %rbp MULXq %r9, %r12, %r10 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r8, %rdx MULXq %r9, %r14, %r8 adcxq %r14, %r10 adoxq %r11, %r10 adcxq %r11, %r8 adoxq %r11, %r8 MULXq %rdx, %r15, %r14 movq %r9, %rdx MULXq %rdx, %rdx, %r9 adcxq %rax, %rax adoxq %rbx, %rax adcxq %rsi, %rsi adoxq %r13, %rsi adcxq %rcx, %rcx adoxq %r12, %rcx adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r10, %r10 adoxq %r14, %r10 adcxq %r8, %r8 adoxq %rdx, %r8 adcxq %r11, %r9 adoxq %r11, %r9 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rdi adcxq %rbx, %rax MULXq %r10, %rbx, %r10 adoxq %rbx, %rax adcxq %r10, %rsi MULXq %r8, %r10, %r8 adoxq %r10, %rsi adcxq %r8, %rcx MULXq %r9, %r8, %rdx adoxq %r8, %rcx adcxq %r11, %rdx adoxq %r11, %rdx imulq $38, %rdx, %rdx addq %rdx, %rdi adcq %r11, %rax adcq %r11, %rsi adcq %r11, %rcx sbbq %r11, %r11 andq $38, %r11 addq %r11, %rdi movl $2, %edx Ljade_scalarmult_curve25519_amd64_mulx$8: movl %edx, 344(%rsp) xorq %r11, %r11 movq %rdi, %rdx MULXq %rdx, %rdi, %rbx MULXq %rax, %r9, %r8 MULXq %rsi, %rbp, %r10 adcxq %rbp, %r8 MULXq %rcx, %rdx, %rbp adcxq %rdx, %r10 movq %rax, %rdx MULXq %rsi, %r12, %rax adoxq %r12, %r10 adcxq %rax, %rbp MULXq %rcx, %r12, %rax adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rsi, %rdx MULXq %rcx, %r14, %rsi adcxq %r14, %rax adoxq %r11, %rax adcxq %r11, %rsi adoxq %r11, %rsi MULXq %rdx, %r15, %r14 movq %rcx, %rdx MULXq %rdx, %rdx, %rcx adcxq %r9, %r9 adoxq %rbx, %r9 adcxq %r8, %r8 adoxq %r13, %r8 adcxq %r10, %r10 adoxq %r12, %r10 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rax, %rax adoxq %r14, %rax adcxq %rsi, %rsi adoxq %rdx, %rsi adcxq %r11, %rcx adoxq %r11, %rcx movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rdi adcxq %rbx, %r9 MULXq %rax, %rbx, %rax adoxq %rbx, %r9 adcxq %rax, %r8 MULXq %rsi, %rsi, %rax adoxq %rsi, %r8 adcxq %rax, %r10 MULXq %rcx, %rcx, %rax adoxq %rcx, %r10 adcxq %r11, %rax adoxq %r11, %rax imulq $38, %rax, %rax addq %rax, %rdi adcq %r11, %r9 adcq %r11, %r8 adcq %r11, %r10 sbbq %r11, %r11 andq $38, %r11 addq %r11, %rdi xorq %r11, %r11 movq %rdi, %rdx MULXq %rdx, %rdi, %rbx MULXq %r9, %rax, %rsi MULXq %r8, %rbp, %rcx adcxq %rbp, %rsi MULXq %r10, %rdx, %rbp adcxq %rdx, %rcx movq %r9, %rdx MULXq %r8, %r12, %r9 adoxq %r12, %rcx adcxq %r9, %rbp MULXq %r10, %r12, %r9 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r8, %rdx MULXq %r10, %r14, %r8 adcxq %r14, %r9 adoxq %r11, %r9 adcxq %r11, %r8 adoxq %r11, %r8 MULXq %rdx, %r15, %r14 movq %r10, %rdx MULXq %rdx, %rdx, %r10 adcxq %rax, %rax adoxq %rbx, %rax adcxq %rsi, %rsi adoxq %r13, %rsi adcxq %rcx, %rcx adoxq %r12, %rcx adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r9, %r9 adoxq %r14, %r9 adcxq %r8, %r8 adoxq %rdx, %r8 adcxq %r11, %r10 adoxq %r11, %r10 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rdi adcxq %rbx, %rax MULXq %r9, %rbx, %r9 adoxq %rbx, %rax adcxq %r9, %rsi MULXq %r8, %r9, %r8 adoxq %r9, %rsi adcxq %r8, %rcx MULXq %r10, %r8, %rdx adoxq %r8, %rcx adcxq %r11, %rdx adoxq %r11, %rdx imulq $38, %rdx, %rdx addq %rdx, %rdi adcq %r11, %rax adcq %r11, %rsi adcq %r11, %rcx sbbq %r11, %r11 andq $38, %r11 addq %r11, %rdi movl 344(%rsp), %edx decl %edx jne Ljade_scalarmult_curve25519_amd64_mulx$8 xorq %rbx, %rbx movq 120(%rsp), %rdx MULXq %rdi, %r8, %r11 MULXq %rax, %r10, %r9 adcxq %r10, %r11 MULXq %rsi, %rbp, %r10 adcxq %rbp, %r9 MULXq %rcx, %rdx, %rbp adcxq %rdx, %r10 adcxq %rbx, %rbp movq 128(%rsp), %rdx MULXq %rdi, %r13, %r12 adoxq %r13, %r11 adcxq %r12, %r9 MULXq %rax, %r13, %r12 adoxq %r13, %r9 adcxq %r12, %r10 MULXq %rsi, %r13, %r12 adoxq %r13, %r10 adcxq %r12, %rbp MULXq %rcx, %rdx, %r12 adoxq %rdx, %rbp adcxq %rbx, %r12 adoxq %rbx, %r12 movq 136(%rsp), %rdx MULXq %rdi, %r14, %r13 adoxq %r14, %r9 adcxq %r13, %r10 MULXq %rax, %r14, %r13 adoxq %r14, %r10 adcxq %r13, %rbp MULXq %rsi, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rcx, %rdx, %r13 adoxq %rdx, %r12 adcxq %rbx, %r13 adoxq %rbx, %r13 movq 144(%rsp), %rdx MULXq %rdi, %r14, %rdi adoxq %r14, %r10 adcxq %rdi, %rbp MULXq %rax, %rdi, %rax adoxq %rdi, %rbp adcxq %rax, %r12 MULXq %rsi, %rsi, %rax adoxq %rsi, %r12 adcxq %rax, %r13 MULXq %rcx, %rcx, %rax adoxq %rcx, %r13 adcxq %rbx, %rax adoxq %rbx, %rax movq $38, %rdx MULXq %rbp, %rsi, %rcx adoxq %rsi, %r8 adcxq %rcx, %r11 MULXq %r12, %rsi, %rcx adoxq %rsi, %r11 adcxq %rcx, %r9 MULXq %r13, %rsi, %rcx adoxq %rsi, %r9 adcxq %rcx, %r10 MULXq %rax, %rcx, %rax adoxq %rcx, %r10 adcxq %rbx, %rax adoxq %rbx, %rax imulq $38, %rax, %rax addq %rax, %r8 adcq %rbx, %r11 adcq %rbx, %r9 adcq %rbx, %r10 sbbq %rbx, %rbx andq $38, %rbx addq %rbx, %r8 movq %r8, 120(%rsp) movq %r11, 128(%rsp) movq %r9, 136(%rsp) movq %r10, 144(%rsp) movl $5, %eax Ljade_scalarmult_curve25519_amd64_mulx$7: movl %eax, 344(%rsp) xorq %rdi, %rdi movq %r8, %rdx MULXq %rdx, %r8, %rbx MULXq %r11, %rcx, %rax MULXq %r9, %rbp, %rsi adcxq %rbp, %rax MULXq %r10, %rdx, %rbp adcxq %rdx, %rsi movq %r11, %rdx MULXq %r9, %r12, %r11 adoxq %r12, %rsi adcxq %r11, %rbp MULXq %r10, %r12, %r11 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r9, %rdx MULXq %r10, %r14, %r9 adcxq %r14, %r11 adoxq %rdi, %r11 adcxq %rdi, %r9 adoxq %rdi, %r9 MULXq %rdx, %r15, %r14 movq %r10, %rdx MULXq %rdx, %rdx, %r10 adcxq %rcx, %rcx adoxq %rbx, %rcx adcxq %rax, %rax adoxq %r13, %rax adcxq %rsi, %rsi adoxq %r12, %rsi adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r11, %r11 adoxq %r14, %r11 adcxq %r9, %r9 adoxq %rdx, %r9 adcxq %rdi, %r10 adoxq %rdi, %r10 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %r8 adcxq %rbx, %rcx MULXq %r11, %rbx, %r11 adoxq %rbx, %rcx adcxq %r11, %rax MULXq %r9, %r11, %r9 adoxq %r11, %rax adcxq %r9, %rsi MULXq %r10, %r9, %rdx adoxq %r9, %rsi adcxq %rdi, %rdx adoxq %rdi, %rdx imulq $38, %rdx, %rdx addq %rdx, %r8 adcq %rdi, %rcx adcq %rdi, %rax adcq %rdi, %rsi sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %r8 xorq %rdi, %rdi movq %r8, %rdx MULXq %rdx, %r8, %rbx MULXq %rcx, %r11, %r9 MULXq %rax, %rbp, %r10 adcxq %rbp, %r9 MULXq %rsi, %rdx, %rbp adcxq %rdx, %r10 movq %rcx, %rdx MULXq %rax, %r12, %rcx adoxq %r12, %r10 adcxq %rcx, %rbp MULXq %rsi, %r12, %rcx adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rax, %rdx MULXq %rsi, %r14, %rax adcxq %r14, %rcx adoxq %rdi, %rcx adcxq %rdi, %rax adoxq %rdi, %rax MULXq %rdx, %r15, %r14 movq %rsi, %rdx MULXq %rdx, %rdx, %rsi adcxq %r11, %r11 adoxq %rbx, %r11 adcxq %r9, %r9 adoxq %r13, %r9 adcxq %r10, %r10 adoxq %r12, %r10 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rcx, %rcx adoxq %r14, %rcx adcxq %rax, %rax adoxq %rdx, %rax adcxq %rdi, %rsi adoxq %rdi, %rsi movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %r8 adcxq %rbx, %r11 MULXq %rcx, %rbx, %rcx adoxq %rbx, %r11 adcxq %rcx, %r9 MULXq %rax, %rcx, %rax adoxq %rcx, %r9 adcxq %rax, %r10 MULXq %rsi, %rcx, %rax adoxq %rcx, %r10 adcxq %rdi, %rax adoxq %rdi, %rax imulq $38, %rax, %rax addq %rax, %r8 adcq %rdi, %r11 adcq %rdi, %r9 adcq %rdi, %r10 sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %r8 movl 344(%rsp), %eax decl %eax jne Ljade_scalarmult_curve25519_amd64_mulx$7 xorq %rbx, %rbx movq 120(%rsp), %rdx MULXq %r8, %rax, %rcx MULXq %r11, %rsi, %rdi adcxq %rsi, %rcx MULXq %r9, %rbp, %rsi adcxq %rbp, %rdi MULXq %r10, %rdx, %rbp adcxq %rdx, %rsi adcxq %rbx, %rbp movq 128(%rsp), %rdx MULXq %r8, %r13, %r12 adoxq %r13, %rcx adcxq %r12, %rdi MULXq %r11, %r13, %r12 adoxq %r13, %rdi adcxq %r12, %rsi MULXq %r9, %r13, %r12 adoxq %r13, %rsi adcxq %r12, %rbp MULXq %r10, %rdx, %r12 adoxq %rdx, %rbp adcxq %rbx, %r12 adoxq %rbx, %r12 movq 136(%rsp), %rdx MULXq %r8, %r14, %r13 adoxq %r14, %rdi adcxq %r13, %rsi MULXq %r11, %r14, %r13 adoxq %r14, %rsi adcxq %r13, %rbp MULXq %r9, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %r10, %rdx, %r13 adoxq %rdx, %r12 adcxq %rbx, %r13 adoxq %rbx, %r13 movq 144(%rsp), %rdx MULXq %r8, %r14, %r8 adoxq %r14, %rsi adcxq %r8, %rbp MULXq %r11, %r11, %r8 adoxq %r11, %rbp adcxq %r8, %r12 MULXq %r9, %r9, %r8 adoxq %r9, %r12 adcxq %r8, %r13 MULXq %r10, %rdx, %r8 adoxq %rdx, %r13 adcxq %rbx, %r8 adoxq %rbx, %r8 movq $38, %rdx MULXq %rbp, %r10, %r9 adoxq %r10, %rax adcxq %r9, %rcx MULXq %r12, %r10, %r9 adoxq %r10, %rcx adcxq %r9, %rdi MULXq %r13, %r10, %r9 adoxq %r10, %rdi adcxq %r9, %rsi MULXq %r8, %r8, %rdx adoxq %r8, %rsi adcxq %rbx, %rdx adoxq %rbx, %rdx imulq $38, %rdx, %rdx addq %rdx, %rax adcq %rbx, %rcx adcq %rbx, %rdi adcq %rbx, %rsi sbbq %rbx, %rbx andq $38, %rbx addq %rbx, %rax movq %rax, 152(%rsp) movq %rcx, 160(%rsp) movq %rdi, 168(%rsp) movq %rsi, 176(%rsp) movl $10, %edx Ljade_scalarmult_curve25519_amd64_mulx$6: movl %edx, 344(%rsp) xorq %r11, %r11 movq %rax, %rdx MULXq %rdx, %rax, %rbx MULXq %rcx, %r9, %r8 MULXq %rdi, %rbp, %r10 adcxq %rbp, %r8 MULXq %rsi, %rdx, %rbp adcxq %rdx, %r10 movq %rcx, %rdx MULXq %rdi, %r12, %rcx adoxq %r12, %r10 adcxq %rcx, %rbp MULXq %rsi, %r12, %rcx adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rdi, %rdx MULXq %rsi, %r14, %rdi adcxq %r14, %rcx adoxq %r11, %rcx adcxq %r11, %rdi adoxq %r11, %rdi MULXq %rdx, %r15, %r14 movq %rsi, %rdx MULXq %rdx, %rdx, %rsi adcxq %r9, %r9 adoxq %rbx, %r9 adcxq %r8, %r8 adoxq %r13, %r8 adcxq %r10, %r10 adoxq %r12, %r10 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rcx, %rcx adoxq %r14, %rcx adcxq %rdi, %rdi adoxq %rdx, %rdi adcxq %r11, %rsi adoxq %r11, %rsi movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rax adcxq %rbx, %r9 MULXq %rcx, %rbx, %rcx adoxq %rbx, %r9 adcxq %rcx, %r8 MULXq %rdi, %rdi, %rcx adoxq %rdi, %r8 adcxq %rcx, %r10 MULXq %rsi, %rdx, %rcx adoxq %rdx, %r10 adcxq %r11, %rcx adoxq %r11, %rcx imulq $38, %rcx, %rcx addq %rcx, %rax adcq %r11, %r9 adcq %r11, %r8 adcq %r11, %r10 sbbq %r11, %r11 andq $38, %r11 addq %r11, %rax xorq %r11, %r11 movq %rax, %rdx MULXq %rdx, %rax, %rbx MULXq %r9, %rcx, %rdi MULXq %r8, %rbp, %rsi adcxq %rbp, %rdi MULXq %r10, %rdx, %rbp adcxq %rdx, %rsi movq %r9, %rdx MULXq %r8, %r12, %r9 adoxq %r12, %rsi adcxq %r9, %rbp MULXq %r10, %r12, %r9 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r8, %rdx MULXq %r10, %r14, %r8 adcxq %r14, %r9 adoxq %r11, %r9 adcxq %r11, %r8 adoxq %r11, %r8 MULXq %rdx, %r15, %r14 movq %r10, %rdx MULXq %rdx, %rdx, %r10 adcxq %rcx, %rcx adoxq %rbx, %rcx adcxq %rdi, %rdi adoxq %r13, %rdi adcxq %rsi, %rsi adoxq %r12, %rsi adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r9, %r9 adoxq %r14, %r9 adcxq %r8, %r8 adoxq %rdx, %r8 adcxq %r11, %r10 adoxq %r11, %r10 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rax adcxq %rbx, %rcx MULXq %r9, %rbx, %r9 adoxq %rbx, %rcx adcxq %r9, %rdi MULXq %r8, %r9, %r8 adoxq %r9, %rdi adcxq %r8, %rsi MULXq %r10, %r8, %rdx adoxq %r8, %rsi adcxq %r11, %rdx adoxq %r11, %rdx imulq $38, %rdx, %rdx addq %rdx, %rax adcq %r11, %rcx adcq %r11, %rdi adcq %r11, %rsi sbbq %r11, %r11 andq $38, %r11 addq %r11, %rax movl 344(%rsp), %edx decl %edx jne Ljade_scalarmult_curve25519_amd64_mulx$6 xorq %rbx, %rbx movq 152(%rsp), %rdx MULXq %rax, %r11, %r9 MULXq %rcx, %r10, %r8 adcxq %r10, %r9 MULXq %rdi, %rbp, %r10 adcxq %rbp, %r8 MULXq %rsi, %rdx, %rbp adcxq %rdx, %r10 adcxq %rbx, %rbp movq 160(%rsp), %rdx MULXq %rax, %r13, %r12 adoxq %r13, %r9 adcxq %r12, %r8 MULXq %rcx, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %r10 MULXq %rdi, %r13, %r12 adoxq %r13, %r10 adcxq %r12, %rbp MULXq %rsi, %rdx, %r12 adoxq %rdx, %rbp adcxq %rbx, %r12 adoxq %rbx, %r12 movq 168(%rsp), %rdx MULXq %rax, %r14, %r13 adoxq %r14, %r8 adcxq %r13, %r10 MULXq %rcx, %r14, %r13 adoxq %r14, %r10 adcxq %r13, %rbp MULXq %rdi, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %rsi, %rdx, %r13 adoxq %rdx, %r12 adcxq %rbx, %r13 adoxq %rbx, %r13 movq 176(%rsp), %rdx MULXq %rax, %r14, %rax adoxq %r14, %r10 adcxq %rax, %rbp MULXq %rcx, %rcx, %rax adoxq %rcx, %rbp adcxq %rax, %r12 MULXq %rdi, %rcx, %rax adoxq %rcx, %r12 adcxq %rax, %r13 MULXq %rsi, %rcx, %rax adoxq %rcx, %r13 adcxq %rbx, %rax adoxq %rbx, %rax movq $38, %rdx MULXq %rbp, %rsi, %rcx adoxq %rsi, %r11 adcxq %rcx, %r9 MULXq %r12, %rsi, %rcx adoxq %rsi, %r9 adcxq %rcx, %r8 MULXq %r13, %rsi, %rcx adoxq %rsi, %r8 adcxq %rcx, %r10 MULXq %rax, %rcx, %rax adoxq %rcx, %r10 adcxq %rbx, %rax adoxq %rbx, %rax imulq $38, %rax, %rax addq %rax, %r11 adcq %rbx, %r9 adcq %rbx, %r8 adcq %rbx, %r10 sbbq %rbx, %rbx andq $38, %rbx addq %rbx, %r11 movl $5, %eax Ljade_scalarmult_curve25519_amd64_mulx$5: movl %eax, 344(%rsp) xorq %rdi, %rdi movq %r11, %rdx MULXq %rdx, %r11, %rbx MULXq %r9, %rcx, %rax MULXq %r8, %rbp, %rsi adcxq %rbp, %rax MULXq %r10, %rdx, %rbp adcxq %rdx, %rsi movq %r9, %rdx MULXq %r8, %r12, %r9 adoxq %r12, %rsi adcxq %r9, %rbp MULXq %r10, %r12, %r9 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r8, %rdx MULXq %r10, %r14, %r8 adcxq %r14, %r9 adoxq %rdi, %r9 adcxq %rdi, %r8 adoxq %rdi, %r8 MULXq %rdx, %r15, %r14 movq %r10, %rdx MULXq %rdx, %rdx, %r10 adcxq %rcx, %rcx adoxq %rbx, %rcx adcxq %rax, %rax adoxq %r13, %rax adcxq %rsi, %rsi adoxq %r12, %rsi adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r9, %r9 adoxq %r14, %r9 adcxq %r8, %r8 adoxq %rdx, %r8 adcxq %rdi, %r10 adoxq %rdi, %r10 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %r11 adcxq %rbx, %rcx MULXq %r9, %rbx, %r9 adoxq %rbx, %rcx adcxq %r9, %rax MULXq %r8, %r9, %r8 adoxq %r9, %rax adcxq %r8, %rsi MULXq %r10, %r8, %rdx adoxq %r8, %rsi adcxq %rdi, %rdx adoxq %rdi, %rdx imulq $38, %rdx, %rdx addq %rdx, %r11 adcq %rdi, %rcx adcq %rdi, %rax adcq %rdi, %rsi sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %r11 xorq %rdi, %rdi movq %r11, %rdx MULXq %rdx, %r11, %rbx MULXq %rcx, %r9, %r8 MULXq %rax, %rbp, %r10 adcxq %rbp, %r8 MULXq %rsi, %rdx, %rbp adcxq %rdx, %r10 movq %rcx, %rdx MULXq %rax, %r12, %rcx adoxq %r12, %r10 adcxq %rcx, %rbp MULXq %rsi, %r12, %rcx adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rax, %rdx MULXq %rsi, %r14, %rax adcxq %r14, %rcx adoxq %rdi, %rcx adcxq %rdi, %rax adoxq %rdi, %rax MULXq %rdx, %r15, %r14 movq %rsi, %rdx MULXq %rdx, %rdx, %rsi adcxq %r9, %r9 adoxq %rbx, %r9 adcxq %r8, %r8 adoxq %r13, %r8 adcxq %r10, %r10 adoxq %r12, %r10 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rcx, %rcx adoxq %r14, %rcx adcxq %rax, %rax adoxq %rdx, %rax adcxq %rdi, %rsi adoxq %rdi, %rsi movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %r11 adcxq %rbx, %r9 MULXq %rcx, %rbx, %rcx adoxq %rbx, %r9 adcxq %rcx, %r8 MULXq %rax, %rcx, %rax adoxq %rcx, %r8 adcxq %rax, %r10 MULXq %rsi, %rcx, %rax adoxq %rcx, %r10 adcxq %rdi, %rax adoxq %rdi, %rax imulq $38, %rax, %rax addq %rax, %r11 adcq %rdi, %r9 adcq %rdi, %r8 adcq %rdi, %r10 sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %r11 movl 344(%rsp), %eax decl %eax jne Ljade_scalarmult_curve25519_amd64_mulx$5 xorq %rbx, %rbx movq 120(%rsp), %rdx MULXq %r11, %rsi, %rax MULXq %r9, %rcx, %rdi adcxq %rcx, %rax MULXq %r8, %rbp, %rcx adcxq %rbp, %rdi MULXq %r10, %rdx, %rbp adcxq %rdx, %rcx adcxq %rbx, %rbp movq 128(%rsp), %rdx MULXq %r11, %r13, %r12 adoxq %r13, %rax adcxq %r12, %rdi MULXq %r9, %r13, %r12 adoxq %r13, %rdi adcxq %r12, %rcx MULXq %r8, %r13, %r12 adoxq %r13, %rcx adcxq %r12, %rbp MULXq %r10, %rdx, %r12 adoxq %rdx, %rbp adcxq %rbx, %r12 adoxq %rbx, %r12 movq 136(%rsp), %rdx MULXq %r11, %r14, %r13 adoxq %r14, %rdi adcxq %r13, %rcx MULXq %r9, %r14, %r13 adoxq %r14, %rcx adcxq %r13, %rbp MULXq %r8, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %r10, %rdx, %r13 adoxq %rdx, %r12 adcxq %rbx, %r13 adoxq %rbx, %r13 movq 144(%rsp), %rdx MULXq %r11, %r14, %r11 adoxq %r14, %rcx adcxq %r11, %rbp MULXq %r9, %r11, %r9 adoxq %r11, %rbp adcxq %r9, %r12 MULXq %r8, %r9, %r8 adoxq %r9, %r12 adcxq %r8, %r13 MULXq %r10, %rdx, %r8 adoxq %rdx, %r13 adcxq %rbx, %r8 adoxq %rbx, %r8 movq $38, %rdx MULXq %rbp, %r10, %r9 adoxq %r10, %rsi adcxq %r9, %rax MULXq %r12, %r10, %r9 adoxq %r10, %rax adcxq %r9, %rdi MULXq %r13, %r10, %r9 adoxq %r10, %rdi adcxq %r9, %rcx MULXq %r8, %r8, %rdx adoxq %r8, %rcx adcxq %rbx, %rdx adoxq %rbx, %rdx imulq $38, %rdx, %rdx addq %rdx, %rsi adcq %rbx, %rax adcq %rbx, %rdi adcq %rbx, %rcx sbbq %rbx, %rbx andq $38, %rbx addq %rbx, %rsi movq %rsi, 120(%rsp) movq %rax, 128(%rsp) movq %rdi, 136(%rsp) movq %rcx, 144(%rsp) movl $25, %edx Ljade_scalarmult_curve25519_amd64_mulx$4: movl %edx, 344(%rsp) xorq %r11, %r11 movq %rsi, %rdx MULXq %rdx, %rsi, %rbx MULXq %rax, %r9, %r8 MULXq %rdi, %rbp, %r10 adcxq %rbp, %r8 MULXq %rcx, %rdx, %rbp adcxq %rdx, %r10 movq %rax, %rdx MULXq %rdi, %r12, %rax adoxq %r12, %r10 adcxq %rax, %rbp MULXq %rcx, %r12, %rax adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rdi, %rdx MULXq %rcx, %r14, %rdi adcxq %r14, %rax adoxq %r11, %rax adcxq %r11, %rdi adoxq %r11, %rdi MULXq %rdx, %r15, %r14 movq %rcx, %rdx MULXq %rdx, %rdx, %rcx adcxq %r9, %r9 adoxq %rbx, %r9 adcxq %r8, %r8 adoxq %r13, %r8 adcxq %r10, %r10 adoxq %r12, %r10 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rax, %rax adoxq %r14, %rax adcxq %rdi, %rdi adoxq %rdx, %rdi adcxq %r11, %rcx adoxq %r11, %rcx movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rsi adcxq %rbx, %r9 MULXq %rax, %rbx, %rax adoxq %rbx, %r9 adcxq %rax, %r8 MULXq %rdi, %rdi, %rax adoxq %rdi, %r8 adcxq %rax, %r10 MULXq %rcx, %rcx, %rax adoxq %rcx, %r10 adcxq %r11, %rax adoxq %r11, %rax imulq $38, %rax, %rax addq %rax, %rsi adcq %r11, %r9 adcq %r11, %r8 adcq %r11, %r10 sbbq %r11, %r11 andq $38, %r11 addq %r11, %rsi xorq %r11, %r11 movq %rsi, %rdx MULXq %rdx, %rsi, %rbx MULXq %r9, %rax, %rdi MULXq %r8, %rbp, %rcx adcxq %rbp, %rdi MULXq %r10, %rdx, %rbp adcxq %rdx, %rcx movq %r9, %rdx MULXq %r8, %r12, %r9 adoxq %r12, %rcx adcxq %r9, %rbp MULXq %r10, %r12, %r9 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r8, %rdx MULXq %r10, %r14, %r8 adcxq %r14, %r9 adoxq %r11, %r9 adcxq %r11, %r8 adoxq %r11, %r8 MULXq %rdx, %r15, %r14 movq %r10, %rdx MULXq %rdx, %rdx, %r10 adcxq %rax, %rax adoxq %rbx, %rax adcxq %rdi, %rdi adoxq %r13, %rdi adcxq %rcx, %rcx adoxq %r12, %rcx adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r9, %r9 adoxq %r14, %r9 adcxq %r8, %r8 adoxq %rdx, %r8 adcxq %r11, %r10 adoxq %r11, %r10 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rsi adcxq %rbx, %rax MULXq %r9, %rbx, %r9 adoxq %rbx, %rax adcxq %r9, %rdi MULXq %r8, %r9, %r8 adoxq %r9, %rdi adcxq %r8, %rcx MULXq %r10, %r8, %rdx adoxq %r8, %rcx adcxq %r11, %rdx adoxq %r11, %rdx imulq $38, %rdx, %rdx addq %rdx, %rsi adcq %r11, %rax adcq %r11, %rdi adcq %r11, %rcx sbbq %r11, %r11 andq $38, %r11 addq %r11, %rsi movl 344(%rsp), %edx decl %edx jne Ljade_scalarmult_curve25519_amd64_mulx$4 xorq %r11, %r11 movq 120(%rsp), %rdx MULXq %rsi, %rbp, %r9 MULXq %rax, %r8, %r10 adcxq %r8, %r9 MULXq %rdi, %rbx, %r8 adcxq %rbx, %r10 MULXq %rcx, %rdx, %rbx adcxq %rdx, %r8 adcxq %r11, %rbx movq 128(%rsp), %rdx MULXq %rsi, %r13, %r12 adoxq %r13, %r9 adcxq %r12, %r10 MULXq %rax, %r13, %r12 adoxq %r13, %r10 adcxq %r12, %r8 MULXq %rdi, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %rbx MULXq %rcx, %rdx, %r12 adoxq %rdx, %rbx adcxq %r11, %r12 adoxq %r11, %r12 movq 136(%rsp), %rdx MULXq %rsi, %r14, %r13 adoxq %r14, %r10 adcxq %r13, %r8 MULXq %rax, %r14, %r13 adoxq %r14, %r8 adcxq %r13, %rbx MULXq %rdi, %r14, %r13 adoxq %r14, %rbx adcxq %r13, %r12 MULXq %rcx, %rdx, %r13 adoxq %rdx, %r12 adcxq %r11, %r13 adoxq %r11, %r13 movq 144(%rsp), %rdx MULXq %rsi, %r14, %rsi adoxq %r14, %r8 adcxq %rsi, %rbx MULXq %rax, %rsi, %rax adoxq %rsi, %rbx adcxq %rax, %r12 MULXq %rdi, %rsi, %rax adoxq %rsi, %r12 adcxq %rax, %r13 MULXq %rcx, %rcx, %rax adoxq %rcx, %r13 adcxq %r11, %rax adoxq %r11, %rax movq $38, %rdx MULXq %rbx, %rsi, %rcx adoxq %rsi, %rbp adcxq %rcx, %r9 MULXq %r12, %rsi, %rcx adoxq %rsi, %r9 adcxq %rcx, %r10 MULXq %r13, %rsi, %rcx adoxq %rsi, %r10 adcxq %rcx, %r8 MULXq %rax, %rcx, %rax adoxq %rcx, %r8 adcxq %r11, %rax adoxq %r11, %rax imulq $38, %rax, %rax addq %rax, %rbp adcq %r11, %r9 adcq %r11, %r10 adcq %r11, %r8 sbbq %r11, %r11 andq $38, %r11 addq %r11, %rbp movq %rbp, 152(%rsp) movq %r9, 160(%rsp) movq %r10, 168(%rsp) movq %r8, 176(%rsp) movl $50, %eax Ljade_scalarmult_curve25519_amd64_mulx$3: movl %eax, 344(%rsp) xorq %rdi, %rdi movq %rbp, %rdx MULXq %rdx, %r11, %rbx MULXq %r9, %rcx, %rax MULXq %r10, %rbp, %rsi adcxq %rbp, %rax MULXq %r8, %rdx, %rbp adcxq %rdx, %rsi movq %r9, %rdx MULXq %r10, %r12, %r9 adoxq %r12, %rsi adcxq %r9, %rbp MULXq %r8, %r12, %r9 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %r10, %rdx MULXq %r8, %r14, %r10 adcxq %r14, %r9 adoxq %rdi, %r9 adcxq %rdi, %r10 adoxq %rdi, %r10 MULXq %rdx, %r15, %r14 movq %r8, %rdx MULXq %rdx, %rdx, %r8 adcxq %rcx, %rcx adoxq %rbx, %rcx adcxq %rax, %rax adoxq %r13, %rax adcxq %rsi, %rsi adoxq %r12, %rsi adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r9, %r9 adoxq %r14, %r9 adcxq %r10, %r10 adoxq %rdx, %r10 adcxq %rdi, %r8 adoxq %rdi, %r8 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %r11 adcxq %rbx, %rcx MULXq %r9, %rbx, %r9 adoxq %rbx, %rcx adcxq %r9, %rax MULXq %r10, %r10, %r9 adoxq %r10, %rax adcxq %r9, %rsi MULXq %r8, %r8, %rdx adoxq %r8, %rsi adcxq %rdi, %rdx adoxq %rdi, %rdx imulq $38, %rdx, %rdx addq %rdx, %r11 adcq %rdi, %rcx adcq %rdi, %rax adcq %rdi, %rsi sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %r11 xorq %rdi, %rdi movq %r11, %rdx MULXq %rdx, %rbp, %r11 MULXq %rcx, %r9, %r10 MULXq %rax, %rbx, %r8 adcxq %rbx, %r10 MULXq %rsi, %rdx, %rbx adcxq %rdx, %r8 movq %rcx, %rdx MULXq %rax, %r12, %rcx adoxq %r12, %r8 adcxq %rcx, %rbx MULXq %rsi, %r12, %rcx adoxq %r12, %rbx MULXq %rdx, %r13, %r12 movq %rax, %rdx MULXq %rsi, %r14, %rax adcxq %r14, %rcx adoxq %rdi, %rcx adcxq %rdi, %rax adoxq %rdi, %rax MULXq %rdx, %r15, %r14 movq %rsi, %rdx MULXq %rdx, %rdx, %rsi adcxq %r9, %r9 adoxq %r11, %r9 adcxq %r10, %r10 adoxq %r13, %r10 adcxq %r8, %r8 adoxq %r12, %r8 adcxq %rbx, %rbx adoxq %r15, %rbx adcxq %rcx, %rcx adoxq %r14, %rcx adcxq %rax, %rax adoxq %rdx, %rax adcxq %rdi, %rsi adoxq %rdi, %rsi movq $38, %rdx MULXq %rbx, %rbx, %r11 adoxq %rbx, %rbp adcxq %r11, %r9 MULXq %rcx, %r11, %rcx adoxq %r11, %r9 adcxq %rcx, %r10 MULXq %rax, %rcx, %rax adoxq %rcx, %r10 adcxq %rax, %r8 MULXq %rsi, %rcx, %rax adoxq %rcx, %r8 adcxq %rdi, %rax adoxq %rdi, %rax imulq $38, %rax, %rax addq %rax, %rbp adcq %rdi, %r9 adcq %rdi, %r10 adcq %rdi, %r8 sbbq %rdi, %rdi andq $38, %rdi addq %rdi, %rbp movl 344(%rsp), %eax decl %eax jne Ljade_scalarmult_curve25519_amd64_mulx$3 xorq %rcx, %rcx movq 152(%rsp), %rdx MULXq %rbp, %rbx, %r12 MULXq %r9, %rsi, %rax adcxq %rsi, %r12 MULXq %r10, %rsi, %r11 adcxq %rsi, %rax MULXq %r8, %rdx, %rsi adcxq %rdx, %r11 adcxq %rcx, %rsi movq 160(%rsp), %rdx MULXq %rbp, %r13, %rdi adoxq %r13, %r12 adcxq %rdi, %rax MULXq %r9, %r13, %rdi adoxq %r13, %rax adcxq %rdi, %r11 MULXq %r10, %r13, %rdi adoxq %r13, %r11 adcxq %rdi, %rsi MULXq %r8, %rdx, %rdi adoxq %rdx, %rsi adcxq %rcx, %rdi adoxq %rcx, %rdi movq 168(%rsp), %rdx MULXq %rbp, %r14, %r13 adoxq %r14, %rax adcxq %r13, %r11 MULXq %r9, %r14, %r13 adoxq %r14, %r11 adcxq %r13, %rsi MULXq %r10, %r14, %r13 adoxq %r14, %rsi adcxq %r13, %rdi MULXq %r8, %rdx, %r13 adoxq %rdx, %rdi adcxq %rcx, %r13 adoxq %rcx, %r13 movq 176(%rsp), %rdx MULXq %rbp, %r14, %rbp adoxq %r14, %r11 adcxq %rbp, %rsi MULXq %r9, %rbp, %r9 adoxq %rbp, %rsi adcxq %r9, %rdi MULXq %r10, %r10, %r9 adoxq %r10, %rdi adcxq %r9, %r13 MULXq %r8, %rdx, %r8 adoxq %rdx, %r13 adcxq %rcx, %r8 adoxq %rcx, %r8 movq $38, %rdx MULXq %rsi, %r9, %rsi adoxq %r9, %rbx adcxq %rsi, %r12 MULXq %rdi, %rdi, %rsi adoxq %rdi, %r12 adcxq %rsi, %rax MULXq %r13, %rdi, %rsi adoxq %rdi, %rax adcxq %rsi, %r11 MULXq %r8, %rsi, %rdx adoxq %rsi, %r11 adcxq %rcx, %rdx adoxq %rcx, %rdx imulq $38, %rdx, %rdx addq %rdx, %rbx adcq %rcx, %r12 adcq %rcx, %rax adcq %rcx, %r11 sbbq %rcx, %rcx andq $38, %rcx addq %rcx, %rbx movl $25, %ecx Ljade_scalarmult_curve25519_amd64_mulx$2: movl %ecx, 344(%rsp) xorq %r8, %r8 movq %rbx, %rdx MULXq %rdx, %r9, %r10 MULXq %r12, %rsi, %rcx MULXq %rax, %rbx, %rdi adcxq %rbx, %rcx MULXq %r11, %rdx, %rbx adcxq %rdx, %rdi movq %r12, %rdx MULXq %rax, %r12, %rbp adoxq %r12, %rdi adcxq %rbp, %rbx MULXq %r11, %r12, %rbp adoxq %r12, %rbx MULXq %rdx, %r13, %r12 movq %rax, %rdx MULXq %r11, %r14, %rax adcxq %r14, %rbp adoxq %r8, %rbp adcxq %r8, %rax adoxq %r8, %rax MULXq %rdx, %r15, %r14 movq %r11, %rdx MULXq %rdx, %rdx, %r11 adcxq %rsi, %rsi adoxq %r10, %rsi adcxq %rcx, %rcx adoxq %r13, %rcx adcxq %rdi, %rdi adoxq %r12, %rdi adcxq %rbx, %rbx adoxq %r15, %rbx adcxq %rbp, %rbp adoxq %r14, %rbp adcxq %rax, %rax adoxq %rdx, %rax adcxq %r8, %r11 adoxq %r8, %r11 movq $38, %rdx MULXq %rbx, %rbx, %r10 adoxq %rbx, %r9 adcxq %r10, %rsi MULXq %rbp, %rbx, %r10 adoxq %rbx, %rsi adcxq %r10, %rcx MULXq %rax, %r10, %rax adoxq %r10, %rcx adcxq %rax, %rdi MULXq %r11, %rdx, %rax adoxq %rdx, %rdi adcxq %r8, %rax adoxq %r8, %rax imulq $38, %rax, %rax addq %rax, %r9 adcq %r8, %rsi adcq %r8, %rcx adcq %r8, %rdi sbbq %r8, %r8 andq $38, %r8 addq %r8, %r9 xorq %r8, %r8 movq %r9, %rdx MULXq %rdx, %rbx, %r9 MULXq %rsi, %r12, %rax MULXq %rcx, %r10, %r11 adcxq %r10, %rax MULXq %rdi, %rdx, %r10 adcxq %rdx, %r11 movq %rsi, %rdx MULXq %rcx, %rbp, %rsi adoxq %rbp, %r11 adcxq %rsi, %r10 MULXq %rdi, %rbp, %rsi adoxq %rbp, %r10 MULXq %rdx, %r13, %rbp movq %rcx, %rdx MULXq %rdi, %r14, %rcx adcxq %r14, %rsi adoxq %r8, %rsi adcxq %r8, %rcx adoxq %r8, %rcx MULXq %rdx, %r15, %r14 movq %rdi, %rdx MULXq %rdx, %rdx, %rdi adcxq %r12, %r12 adoxq %r9, %r12 adcxq %rax, %rax adoxq %r13, %rax adcxq %r11, %r11 adoxq %rbp, %r11 adcxq %r10, %r10 adoxq %r15, %r10 adcxq %rsi, %rsi adoxq %r14, %rsi adcxq %rcx, %rcx adoxq %rdx, %rcx adcxq %r8, %rdi adoxq %r8, %rdi movq $38, %rdx MULXq %r10, %r10, %r9 adoxq %r10, %rbx adcxq %r9, %r12 MULXq %rsi, %r9, %rsi adoxq %r9, %r12 adcxq %rsi, %rax MULXq %rcx, %rsi, %rcx adoxq %rsi, %rax adcxq %rcx, %r11 MULXq %rdi, %rdx, %rcx adoxq %rdx, %r11 adcxq %r8, %rcx adoxq %r8, %rcx imulq $38, %rcx, %rcx addq %rcx, %rbx adcq %r8, %r12 adcq %r8, %rax adcq %r8, %r11 sbbq %r8, %r8 andq $38, %r8 addq %r8, %rbx movl 344(%rsp), %ecx decl %ecx jne Ljade_scalarmult_curve25519_amd64_mulx$2 xorq %r9, %r9 movq 120(%rsp), %rdx MULXq %rbx, %r8, %rsi MULXq %r12, %rdi, %rcx adcxq %rdi, %rsi MULXq %rax, %r10, %rdi adcxq %r10, %rcx MULXq %r11, %rdx, %r10 adcxq %rdx, %rdi adcxq %r9, %r10 movq 128(%rsp), %rdx MULXq %rbx, %r13, %rbp adoxq %r13, %rsi adcxq %rbp, %rcx MULXq %r12, %r13, %rbp adoxq %r13, %rcx adcxq %rbp, %rdi MULXq %rax, %r13, %rbp adoxq %r13, %rdi adcxq %rbp, %r10 MULXq %r11, %rdx, %rbp adoxq %rdx, %r10 adcxq %r9, %rbp adoxq %r9, %rbp movq 136(%rsp), %rdx MULXq %rbx, %r14, %r13 adoxq %r14, %rcx adcxq %r13, %rdi MULXq %r12, %r14, %r13 adoxq %r14, %rdi adcxq %r13, %r10 MULXq %rax, %r14, %r13 adoxq %r14, %r10 adcxq %r13, %rbp MULXq %r11, %rdx, %r13 adoxq %rdx, %rbp adcxq %r9, %r13 adoxq %r9, %r13 movq 144(%rsp), %rdx MULXq %rbx, %r14, %rbx adoxq %r14, %rdi adcxq %rbx, %r10 MULXq %r12, %r12, %rbx adoxq %r12, %r10 adcxq %rbx, %rbp MULXq %rax, %rbx, %rax adoxq %rbx, %rbp adcxq %rax, %r13 MULXq %r11, %rdx, %rax adoxq %rdx, %r13 adcxq %r9, %rax adoxq %r9, %rax movq $38, %rdx MULXq %r10, %r11, %r10 adoxq %r11, %r8 adcxq %r10, %rsi MULXq %rbp, %r11, %r10 adoxq %r11, %rsi adcxq %r10, %rcx MULXq %r13, %r11, %r10 adoxq %r11, %rcx adcxq %r10, %rdi MULXq %rax, %rdx, %rax adoxq %rdx, %rdi adcxq %r9, %rax adoxq %r9, %rax imulq $38, %rax, %rax addq %rax, %r8 adcq %r9, %rsi adcq %r9, %rcx adcq %r9, %rdi sbbq %r9, %r9 andq $38, %r9 addq %r9, %r8 movl $2, %eax Ljade_scalarmult_curve25519_amd64_mulx$1: movl %eax, 344(%rsp) xorq %r11, %r11 movq %r8, %rdx MULXq %rdx, %r8, %rbx MULXq %rsi, %r9, %rax MULXq %rcx, %rbp, %r10 adcxq %rbp, %rax MULXq %rdi, %rdx, %rbp adcxq %rdx, %r10 movq %rsi, %rdx MULXq %rcx, %r12, %rsi adoxq %r12, %r10 adcxq %rsi, %rbp MULXq %rdi, %r12, %rsi adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rcx, %rdx MULXq %rdi, %r14, %rcx adcxq %r14, %rsi adoxq %r11, %rsi adcxq %r11, %rcx adoxq %r11, %rcx MULXq %rdx, %r15, %r14 movq %rdi, %rdx MULXq %rdx, %rdx, %rdi adcxq %r9, %r9 adoxq %rbx, %r9 adcxq %rax, %rax adoxq %r13, %rax adcxq %r10, %r10 adoxq %r12, %r10 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rsi, %rsi adoxq %r14, %rsi adcxq %rcx, %rcx adoxq %rdx, %rcx adcxq %r11, %rdi adoxq %r11, %rdi movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %r8 adcxq %rbx, %r9 MULXq %rsi, %rbx, %rsi adoxq %rbx, %r9 adcxq %rsi, %rax MULXq %rcx, %rsi, %rcx adoxq %rsi, %rax adcxq %rcx, %r10 MULXq %rdi, %rdx, %rcx adoxq %rdx, %r10 adcxq %r11, %rcx adoxq %r11, %rcx imulq $38, %rcx, %rcx addq %rcx, %r8 adcq %r11, %r9 adcq %r11, %rax adcq %r11, %r10 sbbq %r11, %r11 andq $38, %r11 addq %r11, %r8 xorq %r11, %r11 movq %r8, %rdx MULXq %rdx, %r8, %rbx MULXq %r9, %rsi, %rcx MULXq %rax, %rbp, %rdi adcxq %rbp, %rcx MULXq %r10, %rdx, %rbp adcxq %rdx, %rdi movq %r9, %rdx MULXq %rax, %r12, %r9 adoxq %r12, %rdi adcxq %r9, %rbp MULXq %r10, %r12, %r9 adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rax, %rdx MULXq %r10, %r14, %rax adcxq %r14, %r9 adoxq %r11, %r9 adcxq %r11, %rax adoxq %r11, %rax MULXq %rdx, %r15, %r14 movq %r10, %rdx MULXq %rdx, %rdx, %r10 adcxq %rsi, %rsi adoxq %rbx, %rsi adcxq %rcx, %rcx adoxq %r13, %rcx adcxq %rdi, %rdi adoxq %r12, %rdi adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %r9, %r9 adoxq %r14, %r9 adcxq %rax, %rax adoxq %rdx, %rax adcxq %r11, %r10 adoxq %r11, %r10 movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %r8 adcxq %rbx, %rsi MULXq %r9, %rbx, %r9 adoxq %rbx, %rsi adcxq %r9, %rcx MULXq %rax, %r9, %rax adoxq %r9, %rcx adcxq %rax, %rdi MULXq %r10, %rdx, %rax adoxq %rdx, %rdi adcxq %r11, %rax adoxq %r11, %rax imulq $38, %rax, %rax addq %rax, %r8 adcq %r11, %rsi adcq %r11, %rcx adcq %r11, %rdi sbbq %r11, %r11 andq $38, %r11 addq %r11, %r8 movl 344(%rsp), %eax decl %eax jne Ljade_scalarmult_curve25519_amd64_mulx$1 xorq %r9, %r9 movq %r8, %rdx MULXq %rdx, %rax, %rbx MULXq %rsi, %r10, %r11 MULXq %rcx, %rbp, %r8 adcxq %rbp, %r11 MULXq %rdi, %rdx, %rbp adcxq %rdx, %r8 movq %rsi, %rdx MULXq %rcx, %r12, %rsi adoxq %r12, %r8 adcxq %rsi, %rbp MULXq %rdi, %r12, %rsi adoxq %r12, %rbp MULXq %rdx, %r13, %r12 movq %rcx, %rdx MULXq %rdi, %r14, %rcx adcxq %r14, %rsi adoxq %r9, %rsi adcxq %r9, %rcx adoxq %r9, %rcx MULXq %rdx, %r15, %r14 movq %rdi, %rdx MULXq %rdx, %rdx, %rdi adcxq %r10, %r10 adoxq %rbx, %r10 adcxq %r11, %r11 adoxq %r13, %r11 adcxq %r8, %r8 adoxq %r12, %r8 adcxq %rbp, %rbp adoxq %r15, %rbp adcxq %rsi, %rsi adoxq %r14, %rsi adcxq %rcx, %rcx adoxq %rdx, %rcx adcxq %r9, %rdi adoxq %r9, %rdi movq $38, %rdx MULXq %rbp, %rbp, %rbx adoxq %rbp, %rax adcxq %rbx, %r10 MULXq %rsi, %rbx, %rsi adoxq %rbx, %r10 adcxq %rsi, %r11 MULXq %rcx, %rsi, %rcx adoxq %rsi, %r11 adcxq %rcx, %r8 MULXq %rdi, %rdx, %rcx adoxq %rdx, %r8 adcxq %r9, %rcx adoxq %r9, %rcx imulq $38, %rcx, %rcx addq %rcx, %rax adcq %r9, %r10 adcq %r9, %r11 adcq %r9, %r8 sbbq %r9, %r9 andq $38, %r9 addq %r9, %rax xorq %rbx, %rbx movq 88(%rsp), %rdx MULXq %rax, %rsi, %rcx MULXq %r10, %r9, %rdi adcxq %r9, %rcx MULXq %r11, %rbp, %r9 adcxq %rbp, %rdi MULXq %r8, %rdx, %rbp adcxq %rdx, %r9 adcxq %rbx, %rbp movq 96(%rsp), %rdx MULXq %rax, %r13, %r12 adoxq %r13, %rcx adcxq %r12, %rdi MULXq %r10, %r13, %r12 adoxq %r13, %rdi adcxq %r12, %r9 MULXq %r11, %r13, %r12 adoxq %r13, %r9 adcxq %r12, %rbp MULXq %r8, %rdx, %r12 adoxq %rdx, %rbp adcxq %rbx, %r12 adoxq %rbx, %r12 movq 104(%rsp), %rdx MULXq %rax, %r14, %r13 adoxq %r14, %rdi adcxq %r13, %r9 MULXq %r10, %r14, %r13 adoxq %r14, %r9 adcxq %r13, %rbp MULXq %r11, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %r8, %rdx, %r13 adoxq %rdx, %r12 adcxq %rbx, %r13 adoxq %rbx, %r13 movq 112(%rsp), %rdx MULXq %rax, %r14, %rax adoxq %r14, %r9 adcxq %rax, %rbp MULXq %r10, %r10, %rax adoxq %r10, %rbp adcxq %rax, %r12 MULXq %r11, %r10, %rax adoxq %r10, %r12 adcxq %rax, %r13 MULXq %r8, %rdx, %rax adoxq %rdx, %r13 adcxq %rbx, %rax adoxq %rbx, %rax movq $38, %rdx MULXq %rbp, %r10, %r8 adoxq %r10, %rsi adcxq %r8, %rcx MULXq %r12, %r10, %r8 adoxq %r10, %rcx adcxq %r8, %rdi MULXq %r13, %r10, %r8 adoxq %r10, %rdi adcxq %r8, %r9 MULXq %rax, %rdx, %rax adoxq %rdx, %r9 adcxq %rbx, %rax adoxq %rbx, %rax imulq $38, %rax, %rax addq %rax, %rsi adcq %rbx, %rcx adcq %rbx, %rdi adcq %rbx, %r9 sbbq %rbx, %rbx andq $38, %rbx addq %rbx, %rsi xorq %rax, %rax movq 56(%rsp), %rdx MULXq %rsi, %r10, %r8 MULXq %rcx, %rbx, %r11 adcxq %rbx, %r8 MULXq %rdi, %rbp, %rbx adcxq %rbp, %r11 MULXq %r9, %rdx, %rbp adcxq %rdx, %rbx adcxq %rax, %rbp movq 64(%rsp), %rdx MULXq %rsi, %r13, %r12 adoxq %r13, %r8 adcxq %r12, %r11 MULXq %rcx, %r13, %r12 adoxq %r13, %r11 adcxq %r12, %rbx MULXq %rdi, %r13, %r12 adoxq %r13, %rbx adcxq %r12, %rbp MULXq %r9, %rdx, %r12 adoxq %rdx, %rbp adcxq %rax, %r12 adoxq %rax, %r12 movq 72(%rsp), %rdx MULXq %rsi, %r14, %r13 adoxq %r14, %r11 adcxq %r13, %rbx MULXq %rcx, %r14, %r13 adoxq %r14, %rbx adcxq %r13, %rbp MULXq %rdi, %r14, %r13 adoxq %r14, %rbp adcxq %r13, %r12 MULXq %r9, %rdx, %r13 adoxq %rdx, %r12 adcxq %rax, %r13 adoxq %rax, %r13 movq 80(%rsp), %rdx MULXq %rsi, %r14, %rsi adoxq %r14, %rbx adcxq %rsi, %rbp MULXq %rcx, %rsi, %rcx adoxq %rsi, %rbp adcxq %rcx, %r12 MULXq %rdi, %rsi, %rcx adoxq %rsi, %r12 adcxq %rcx, %r13 MULXq %r9, %rdx, %rcx adoxq %rdx, %r13 adcxq %rax, %rcx adoxq %rax, %rcx movq $38, %rdx MULXq %rbp, %rdi, %rsi adoxq %rdi, %r10 adcxq %rsi, %r8 MULXq %r12, %rdi, %rsi adoxq %rdi, %r8 adcxq %rsi, %r11 MULXq %r13, %rdi, %rsi adoxq %rdi, %r11 adcxq %rsi, %rbx MULXq %rcx, %rdx, %rcx adoxq %rdx, %rbx adcxq %rax, %rcx adoxq %rax, %rcx imulq $38, %rcx, %rcx addq %rcx, %r10 adcq %rax, %r8 adcq %rax, %r11 adcq %rax, %rbx sbbq %rax, %rax andq $38, %rax addq %rax, %r10 leaq (%rbx,%rbx), %rax sarq $63, %rbx shrq $1, %rax andq $19, %rbx addq $19, %rbx addq %rbx, %r10 adcq $0, %r8 adcq $0, %r11 adcq $0, %rax leaq (%rax,%rax), %rcx sarq $63, %rax shrq $1, %rcx notq %rax andq $19, %rax subq %rax, %r10 sbbq $0, %r8 sbbq $0, %r11 sbbq $0, %rcx movq (%rsp), %rax movq %r10, (%rax) movq %r8, 8(%rax) movq %r11, 16(%rax) movq %rcx, 24(%rax) xorq %rax, %rax movq 352(%rsp), %rbx movq 360(%rsp), %rbp movq 368(%rsp), %r12 movq 376(%rsp), %r13 movq 384(%rsp), %r14 movq 392(%rsp), %r15 movq 400(%rsp), %rsp ret
verdict-x509/verdict
18,425
deps/libcrux/sys/libjade/jazz/chacha20_ref.s
.att_syntax .text .p2align 5 .globl _jade_stream_chacha_chacha20_ietf_amd64_ref .globl jade_stream_chacha_chacha20_ietf_amd64_ref .globl _jade_stream_chacha_chacha20_ietf_amd64_ref_xor .globl jade_stream_chacha_chacha20_ietf_amd64_ref_xor _jade_stream_chacha_chacha20_ietf_amd64_ref: jade_stream_chacha_chacha20_ietf_amd64_ref: movq %rsp, %rax leaq -152(%rsp), %rsp andq $-8, %rsp movq %rax, 144(%rsp) movq %rbx, 96(%rsp) movq %rbp, 104(%rsp) movq %r12, 112(%rsp) movq %r13, 120(%rsp) movq %r14, 128(%rsp) movq %r15, 136(%rsp) movq %rdi, (%rsp) movq %rsi, 8(%rsp) movl $1634760805, 16(%rsp) movl $857760878, 20(%rsp) movl $2036477234, 24(%rsp) movl $1797285236, 28(%rsp) movl (%rcx), %eax movl %eax, 32(%rsp) movl 4(%rcx), %eax movl %eax, 36(%rsp) movl 8(%rcx), %eax movl %eax, 40(%rsp) movl 12(%rcx), %eax movl %eax, 44(%rsp) movl 16(%rcx), %eax movl %eax, 48(%rsp) movl 20(%rcx), %eax movl %eax, 52(%rsp) movl 24(%rcx), %eax movl %eax, 56(%rsp) movl 28(%rcx), %eax movl %eax, 60(%rsp) movl $0, 64(%rsp) movl (%rdx), %eax movl %eax, 68(%rsp) movl 4(%rdx), %eax movl %eax, 72(%rsp) movl 8(%rdx), %eax movl %eax, 76(%rsp) jmp Ljade_stream_chacha_chacha20_ietf_amd64_ref$7 Ljade_stream_chacha_chacha20_ietf_amd64_ref$8: movl 76(%rsp), %eax movl %eax, 80(%rsp) movl 16(%rsp), %r14d movl 20(%rsp), %r13d movl 24(%rsp), %eax movl 28(%rsp), %r15d movl 32(%rsp), %ecx movl 36(%rsp), %edx movl 40(%rsp), %esi movl 44(%rsp), %edi movl 48(%rsp), %r8d movl 52(%rsp), %r9d movl 56(%rsp), %r10d movl 60(%rsp), %r11d movl 64(%rsp), %ebx movl 68(%rsp), %ebp movl 72(%rsp), %r12d movl %r12d, 84(%rsp) movl $10, %r12d Ljade_stream_chacha_chacha20_ietf_amd64_ref$9: movl %r12d, 88(%rsp) movl 84(%rsp), %r12d addl %ecx, %r14d addl %esi, %eax xorl %r14d, %ebx xorl %eax, %r12d roll $16, %ebx roll $16, %r12d addl %ebx, %r8d addl %r12d, %r10d xorl %r8d, %ecx xorl %r10d, %esi roll $12, %ecx roll $12, %esi addl %ecx, %r14d addl %esi, %eax xorl %r14d, %ebx xorl %eax, %r12d roll $8, %ebx roll $8, %r12d addl %ebx, %r8d addl %r12d, %r10d xorl %r8d, %ecx xorl %r10d, %esi roll $7, %ecx roll $7, %esi movl %r12d, 92(%rsp) movl 80(%rsp), %r12d addl %edx, %r13d addl %edi, %r15d xorl %r13d, %ebp xorl %r15d, %r12d roll $16, %ebp roll $16, %r12d addl %ebp, %r9d addl %r12d, %r11d xorl %r9d, %edx xorl %r11d, %edi roll $12, %edx roll $12, %edi addl %edx, %r13d addl %edi, %r15d xorl %r13d, %ebp xorl %r15d, %r12d roll $8, %ebp roll $8, %r12d addl %ebp, %r9d addl %r12d, %r11d xorl %r9d, %edx xorl %r11d, %edi roll $7, %edx roll $7, %edi addl %esi, %r13d addl %edx, %r14d xorl %r13d, %ebx xorl %r14d, %r12d roll $16, %ebx roll $16, %r12d addl %ebx, %r11d addl %r12d, %r10d xorl %r11d, %esi xorl %r10d, %edx roll $12, %esi roll $12, %edx addl %esi, %r13d addl %edx, %r14d xorl %r13d, %ebx xorl %r14d, %r12d roll $8, %ebx roll $8, %r12d addl %ebx, %r11d addl %r12d, %r10d xorl %r11d, %esi xorl %r10d, %edx roll $7, %esi roll $7, %edx movl %r12d, 80(%rsp) movl 92(%rsp), %r12d addl %edi, %eax addl %ecx, %r15d xorl %eax, %ebp xorl %r15d, %r12d roll $16, %ebp roll $16, %r12d addl %ebp, %r8d addl %r12d, %r9d xorl %r8d, %edi xorl %r9d, %ecx roll $12, %edi roll $12, %ecx addl %edi, %eax addl %ecx, %r15d xorl %eax, %ebp xorl %r15d, %r12d roll $8, %ebp roll $8, %r12d addl %ebp, %r8d addl %r12d, %r9d xorl %r8d, %edi xorl %r9d, %ecx roll $7, %edi roll $7, %ecx movl %r12d, 84(%rsp) movl 88(%rsp), %r12d decl %r12d cmpl $0, %r12d jnbe Ljade_stream_chacha_chacha20_ietf_amd64_ref$9 movl 84(%rsp), %r12d addl 20(%rsp), %r13d addl 16(%rsp), %r14d movl %r13d, %r13d shlq $32, %r13 movl %r14d, %r14d xorq %r14, %r13 addl 28(%rsp), %r15d addl 24(%rsp), %eax movl %r15d, %r14d shlq $32, %r14 movl %eax, %eax xorq %rax, %r14 movq (%rsp), %rax movq %r13, (%rax) addl 36(%rsp), %edx addl 32(%rsp), %ecx movl %edx, %edx shlq $32, %rdx movl %ecx, %ecx xorq %rcx, %rdx movq %r14, 8(%rax) addl 44(%rsp), %edi addl 40(%rsp), %esi movl %edi, %ecx shlq $32, %rcx movl %esi, %esi xorq %rsi, %rcx movq %rdx, 16(%rax) addl 52(%rsp), %r9d addl 48(%rsp), %r8d movl %r9d, %edx shlq $32, %rdx movl %r8d, %esi xorq %rsi, %rdx movq %rcx, 24(%rax) addl 60(%rsp), %r11d addl 56(%rsp), %r10d movl %r11d, %ecx shlq $32, %rcx movl %r10d, %esi xorq %rsi, %rcx movq %rdx, 32(%rax) addl 68(%rsp), %ebp addl 64(%rsp), %ebx movl %ebp, %edx shlq $32, %rdx movl %ebx, %esi xorq %rsi, %rdx movq %rcx, 40(%rax) movl 80(%rsp), %ecx addl 76(%rsp), %ecx addl 72(%rsp), %r12d movl %ecx, %ecx shlq $32, %rcx movl %r12d, %esi xorq %rsi, %rcx movq %rdx, 48(%rax) movq %rcx, 56(%rax) movq 8(%rsp), %rcx addq $64, %rax addq $-64, %rcx movq %rax, (%rsp) movq %rcx, 8(%rsp) movl 64(%rsp), %eax incl %eax movl %eax, 64(%rsp) Ljade_stream_chacha_chacha20_ietf_amd64_ref$7: movq 8(%rsp), %rax cmpq $64, %rax jnb Ljade_stream_chacha_chacha20_ietf_amd64_ref$8 cmpq $0, %rax jbe Ljade_stream_chacha_chacha20_ietf_amd64_ref$1 movl 76(%rsp), %eax movl %eax, 80(%rsp) movl 16(%rsp), %eax movl 20(%rsp), %ecx movl 24(%rsp), %edx movl 28(%rsp), %esi movl 32(%rsp), %edi movl 36(%rsp), %r8d movl 40(%rsp), %r9d movl 44(%rsp), %r10d movl 48(%rsp), %r11d movl 52(%rsp), %ebx movl 56(%rsp), %ebp movl 60(%rsp), %r12d movl 64(%rsp), %r13d movl 68(%rsp), %r14d movl 72(%rsp), %r15d movl %r15d, 84(%rsp) movl $10, %r15d Ljade_stream_chacha_chacha20_ietf_amd64_ref$6: movl %r15d, 88(%rsp) movl 84(%rsp), %r15d addl %edi, %eax addl %r9d, %edx xorl %eax, %r13d xorl %edx, %r15d roll $16, %r13d roll $16, %r15d addl %r13d, %r11d addl %r15d, %ebp xorl %r11d, %edi xorl %ebp, %r9d roll $12, %edi roll $12, %r9d addl %edi, %eax addl %r9d, %edx xorl %eax, %r13d xorl %edx, %r15d roll $8, %r13d roll $8, %r15d addl %r13d, %r11d addl %r15d, %ebp xorl %r11d, %edi xorl %ebp, %r9d roll $7, %edi roll $7, %r9d movl %r15d, 92(%rsp) movl 80(%rsp), %r15d addl %r8d, %ecx addl %r10d, %esi xorl %ecx, %r14d xorl %esi, %r15d roll $16, %r14d roll $16, %r15d addl %r14d, %ebx addl %r15d, %r12d xorl %ebx, %r8d xorl %r12d, %r10d roll $12, %r8d roll $12, %r10d addl %r8d, %ecx addl %r10d, %esi xorl %ecx, %r14d xorl %esi, %r15d roll $8, %r14d roll $8, %r15d addl %r14d, %ebx addl %r15d, %r12d xorl %ebx, %r8d xorl %r12d, %r10d roll $7, %r8d roll $7, %r10d addl %r9d, %ecx addl %r8d, %eax xorl %ecx, %r13d xorl %eax, %r15d roll $16, %r13d roll $16, %r15d addl %r13d, %r12d addl %r15d, %ebp xorl %r12d, %r9d xorl %ebp, %r8d roll $12, %r9d roll $12, %r8d addl %r9d, %ecx addl %r8d, %eax xorl %ecx, %r13d xorl %eax, %r15d roll $8, %r13d roll $8, %r15d addl %r13d, %r12d addl %r15d, %ebp xorl %r12d, %r9d xorl %ebp, %r8d roll $7, %r9d roll $7, %r8d movl %r15d, 80(%rsp) movl 92(%rsp), %r15d addl %r10d, %edx addl %edi, %esi xorl %edx, %r14d xorl %esi, %r15d roll $16, %r14d roll $16, %r15d addl %r14d, %r11d addl %r15d, %ebx xorl %r11d, %r10d xorl %ebx, %edi roll $12, %r10d roll $12, %edi addl %r10d, %edx addl %edi, %esi xorl %edx, %r14d xorl %esi, %r15d roll $8, %r14d roll $8, %r15d addl %r14d, %r11d addl %r15d, %ebx xorl %r11d, %r10d xorl %ebx, %edi roll $7, %r10d roll $7, %edi movl %r15d, 84(%rsp) movl 88(%rsp), %r15d decl %r15d cmpl $0, %r15d jnbe Ljade_stream_chacha_chacha20_ietf_amd64_ref$6 movl 84(%rsp), %r15d addl 16(%rsp), %eax addl 20(%rsp), %ecx addl 24(%rsp), %edx addl 28(%rsp), %esi addl 32(%rsp), %edi addl 36(%rsp), %r8d addl 40(%rsp), %r9d addl 44(%rsp), %r10d addl 48(%rsp), %r11d addl 52(%rsp), %ebx addl 56(%rsp), %ebp addl 60(%rsp), %r12d addl 64(%rsp), %r13d addl 68(%rsp), %r14d addl 72(%rsp), %r15d movl %r15d, 84(%rsp) movl 80(%rsp), %r15d addl 76(%rsp), %r15d movl %r15d, 80(%rsp) movl 84(%rsp), %r15d movl %eax, 16(%rsp) movl %ecx, 20(%rsp) movl %edx, 24(%rsp) movl %esi, 28(%rsp) movl %edi, 32(%rsp) movl %r8d, 36(%rsp) movl %r9d, 40(%rsp) movl %r10d, 44(%rsp) movl %r11d, 48(%rsp) movl %ebx, 52(%rsp) movl %ebp, 56(%rsp) movl %r12d, 60(%rsp) movl %r13d, 64(%rsp) movl %r14d, 68(%rsp) movl %r15d, 72(%rsp) movl 80(%rsp), %eax movl %eax, 76(%rsp) movq (%rsp), %rax movq 8(%rsp), %rcx movq %rcx, %rdx shrq $3, %rdx movq $0, %rsi jmp Ljade_stream_chacha_chacha20_ietf_amd64_ref$4 Ljade_stream_chacha_chacha20_ietf_amd64_ref$5: movq 16(%rsp,%rsi,8), %rdi movq %rdi, (%rax,%rsi,8) incq %rsi Ljade_stream_chacha_chacha20_ietf_amd64_ref$4: cmpq %rdx, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_ref$5 shlq $3, %rsi jmp Ljade_stream_chacha_chacha20_ietf_amd64_ref$2 Ljade_stream_chacha_chacha20_ietf_amd64_ref$3: movb 16(%rsp,%rsi), %dl movb %dl, (%rax,%rsi) incq %rsi Ljade_stream_chacha_chacha20_ietf_amd64_ref$2: cmpq %rcx, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_ref$3 Ljade_stream_chacha_chacha20_ietf_amd64_ref$1: xorq %rax, %rax movq 96(%rsp), %rbx movq 104(%rsp), %rbp movq 112(%rsp), %r12 movq 120(%rsp), %r13 movq 128(%rsp), %r14 movq 136(%rsp), %r15 movq 144(%rsp), %rsp ret _jade_stream_chacha_chacha20_ietf_amd64_ref_xor: jade_stream_chacha_chacha20_ietf_amd64_ref_xor: movq %rsp, %rax leaq -160(%rsp), %rsp andq $-8, %rsp movq %rax, 152(%rsp) movq %rbx, 104(%rsp) movq %rbp, 112(%rsp) movq %r12, 120(%rsp) movq %r13, 128(%rsp) movq %r14, 136(%rsp) movq %r15, 144(%rsp) movq %rdi, (%rsp) movq %rsi, 8(%rsp) movq %rdx, 16(%rsp) movl $1634760805, 24(%rsp) movl $857760878, 28(%rsp) movl $2036477234, 32(%rsp) movl $1797285236, 36(%rsp) movl (%r8), %eax movl %eax, 40(%rsp) movl 4(%r8), %eax movl %eax, 44(%rsp) movl 8(%r8), %eax movl %eax, 48(%rsp) movl 12(%r8), %eax movl %eax, 52(%rsp) movl 16(%r8), %eax movl %eax, 56(%rsp) movl 20(%r8), %eax movl %eax, 60(%rsp) movl 24(%r8), %eax movl %eax, 64(%rsp) movl 28(%r8), %eax movl %eax, 68(%rsp) movl $0, 72(%rsp) movl (%rcx), %eax movl %eax, 76(%rsp) movl 4(%rcx), %eax movl %eax, 80(%rsp) movl 8(%rcx), %eax movl %eax, 84(%rsp) jmp Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$7 Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$8: movl 84(%rsp), %eax movl %eax, 88(%rsp) movl 24(%rsp), %r14d movl 28(%rsp), %r13d movl 32(%rsp), %eax movl 36(%rsp), %r15d movl 40(%rsp), %ecx movl 44(%rsp), %edx movl 48(%rsp), %esi movl 52(%rsp), %edi movl 56(%rsp), %r8d movl 60(%rsp), %r9d movl 64(%rsp), %r10d movl 68(%rsp), %r11d movl 72(%rsp), %ebx movl 76(%rsp), %ebp movl 80(%rsp), %r12d movl %r12d, 92(%rsp) movl $10, %r12d Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$9: movl %r12d, 96(%rsp) movl 92(%rsp), %r12d addl %ecx, %r14d addl %esi, %eax xorl %r14d, %ebx xorl %eax, %r12d roll $16, %ebx roll $16, %r12d addl %ebx, %r8d addl %r12d, %r10d xorl %r8d, %ecx xorl %r10d, %esi roll $12, %ecx roll $12, %esi addl %ecx, %r14d addl %esi, %eax xorl %r14d, %ebx xorl %eax, %r12d roll $8, %ebx roll $8, %r12d addl %ebx, %r8d addl %r12d, %r10d xorl %r8d, %ecx xorl %r10d, %esi roll $7, %ecx roll $7, %esi movl %r12d, 100(%rsp) movl 88(%rsp), %r12d addl %edx, %r13d addl %edi, %r15d xorl %r13d, %ebp xorl %r15d, %r12d roll $16, %ebp roll $16, %r12d addl %ebp, %r9d addl %r12d, %r11d xorl %r9d, %edx xorl %r11d, %edi roll $12, %edx roll $12, %edi addl %edx, %r13d addl %edi, %r15d xorl %r13d, %ebp xorl %r15d, %r12d roll $8, %ebp roll $8, %r12d addl %ebp, %r9d addl %r12d, %r11d xorl %r9d, %edx xorl %r11d, %edi roll $7, %edx roll $7, %edi addl %esi, %r13d addl %edx, %r14d xorl %r13d, %ebx xorl %r14d, %r12d roll $16, %ebx roll $16, %r12d addl %ebx, %r11d addl %r12d, %r10d xorl %r11d, %esi xorl %r10d, %edx roll $12, %esi roll $12, %edx addl %esi, %r13d addl %edx, %r14d xorl %r13d, %ebx xorl %r14d, %r12d roll $8, %ebx roll $8, %r12d addl %ebx, %r11d addl %r12d, %r10d xorl %r11d, %esi xorl %r10d, %edx roll $7, %esi roll $7, %edx movl %r12d, 88(%rsp) movl 100(%rsp), %r12d addl %edi, %eax addl %ecx, %r15d xorl %eax, %ebp xorl %r15d, %r12d roll $16, %ebp roll $16, %r12d addl %ebp, %r8d addl %r12d, %r9d xorl %r8d, %edi xorl %r9d, %ecx roll $12, %edi roll $12, %ecx addl %edi, %eax addl %ecx, %r15d xorl %eax, %ebp xorl %r15d, %r12d roll $8, %ebp roll $8, %r12d addl %ebp, %r8d addl %r12d, %r9d xorl %r8d, %edi xorl %r9d, %ecx roll $7, %edi roll $7, %ecx movl %r12d, 92(%rsp) movl 96(%rsp), %r12d decl %r12d cmpl $0, %r12d jnbe Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$9 movl 92(%rsp), %r12d addl 28(%rsp), %r13d addl 24(%rsp), %r14d movl %r13d, %r13d shlq $32, %r13 movl %r14d, %r14d xorq %r14, %r13 movq 8(%rsp), %r14 xorq (%r14), %r13 addl 36(%rsp), %r15d addl 32(%rsp), %eax movl %r15d, %r15d shlq $32, %r15 movl %eax, %eax xorq %rax, %r15 xorq 8(%r14), %r15 movq (%rsp), %rax movq %r13, (%rax) addl 44(%rsp), %edx addl 40(%rsp), %ecx movl %edx, %edx shlq $32, %rdx movl %ecx, %ecx xorq %rcx, %rdx xorq 16(%r14), %rdx movq %r15, 8(%rax) addl 52(%rsp), %edi addl 48(%rsp), %esi movl %edi, %ecx shlq $32, %rcx movl %esi, %esi xorq %rsi, %rcx xorq 24(%r14), %rcx movq %rdx, 16(%rax) addl 60(%rsp), %r9d addl 56(%rsp), %r8d movl %r9d, %edx shlq $32, %rdx movl %r8d, %esi xorq %rsi, %rdx xorq 32(%r14), %rdx movq %rcx, 24(%rax) addl 68(%rsp), %r11d addl 64(%rsp), %r10d movl %r11d, %ecx shlq $32, %rcx movl %r10d, %esi xorq %rsi, %rcx xorq 40(%r14), %rcx movq %rdx, 32(%rax) addl 76(%rsp), %ebp addl 72(%rsp), %ebx movl %ebp, %edx shlq $32, %rdx movl %ebx, %esi xorq %rsi, %rdx xorq 48(%r14), %rdx movq %rcx, 40(%rax) movl 88(%rsp), %ecx addl 84(%rsp), %ecx addl 80(%rsp), %r12d movl %ecx, %ecx shlq $32, %rcx movl %r12d, %esi xorq %rsi, %rcx xorq 56(%r14), %rcx movq %rdx, 48(%rax) movq %rcx, 56(%rax) movq 16(%rsp), %rcx addq $64, %rax addq $64, %r14 addq $-64, %rcx movq %rax, (%rsp) movq %r14, 8(%rsp) movq %rcx, 16(%rsp) movl 72(%rsp), %eax incl %eax movl %eax, 72(%rsp) Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$7: movq 16(%rsp), %rax cmpq $64, %rax jnb Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$8 cmpq $0, %rax jbe Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$1 movl 84(%rsp), %eax movl %eax, 88(%rsp) movl 24(%rsp), %eax movl 28(%rsp), %ecx movl 32(%rsp), %edx movl 36(%rsp), %esi movl 40(%rsp), %edi movl 44(%rsp), %r8d movl 48(%rsp), %r9d movl 52(%rsp), %r10d movl 56(%rsp), %r11d movl 60(%rsp), %ebx movl 64(%rsp), %ebp movl 68(%rsp), %r12d movl 72(%rsp), %r13d movl 76(%rsp), %r14d movl 80(%rsp), %r15d movl %r15d, 92(%rsp) movl $10, %r15d Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$6: movl %r15d, 96(%rsp) movl 92(%rsp), %r15d addl %edi, %eax addl %r9d, %edx xorl %eax, %r13d xorl %edx, %r15d roll $16, %r13d roll $16, %r15d addl %r13d, %r11d addl %r15d, %ebp xorl %r11d, %edi xorl %ebp, %r9d roll $12, %edi roll $12, %r9d addl %edi, %eax addl %r9d, %edx xorl %eax, %r13d xorl %edx, %r15d roll $8, %r13d roll $8, %r15d addl %r13d, %r11d addl %r15d, %ebp xorl %r11d, %edi xorl %ebp, %r9d roll $7, %edi roll $7, %r9d movl %r15d, 100(%rsp) movl 88(%rsp), %r15d addl %r8d, %ecx addl %r10d, %esi xorl %ecx, %r14d xorl %esi, %r15d roll $16, %r14d roll $16, %r15d addl %r14d, %ebx addl %r15d, %r12d xorl %ebx, %r8d xorl %r12d, %r10d roll $12, %r8d roll $12, %r10d addl %r8d, %ecx addl %r10d, %esi xorl %ecx, %r14d xorl %esi, %r15d roll $8, %r14d roll $8, %r15d addl %r14d, %ebx addl %r15d, %r12d xorl %ebx, %r8d xorl %r12d, %r10d roll $7, %r8d roll $7, %r10d addl %r9d, %ecx addl %r8d, %eax xorl %ecx, %r13d xorl %eax, %r15d roll $16, %r13d roll $16, %r15d addl %r13d, %r12d addl %r15d, %ebp xorl %r12d, %r9d xorl %ebp, %r8d roll $12, %r9d roll $12, %r8d addl %r9d, %ecx addl %r8d, %eax xorl %ecx, %r13d xorl %eax, %r15d roll $8, %r13d roll $8, %r15d addl %r13d, %r12d addl %r15d, %ebp xorl %r12d, %r9d xorl %ebp, %r8d roll $7, %r9d roll $7, %r8d movl %r15d, 88(%rsp) movl 100(%rsp), %r15d addl %r10d, %edx addl %edi, %esi xorl %edx, %r14d xorl %esi, %r15d roll $16, %r14d roll $16, %r15d addl %r14d, %r11d addl %r15d, %ebx xorl %r11d, %r10d xorl %ebx, %edi roll $12, %r10d roll $12, %edi addl %r10d, %edx addl %edi, %esi xorl %edx, %r14d xorl %esi, %r15d roll $8, %r14d roll $8, %r15d addl %r14d, %r11d addl %r15d, %ebx xorl %r11d, %r10d xorl %ebx, %edi roll $7, %r10d roll $7, %edi movl %r15d, 92(%rsp) movl 96(%rsp), %r15d decl %r15d cmpl $0, %r15d jnbe Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$6 movl 92(%rsp), %r15d addl 24(%rsp), %eax addl 28(%rsp), %ecx addl 32(%rsp), %edx addl 36(%rsp), %esi addl 40(%rsp), %edi addl 44(%rsp), %r8d addl 48(%rsp), %r9d addl 52(%rsp), %r10d addl 56(%rsp), %r11d addl 60(%rsp), %ebx addl 64(%rsp), %ebp addl 68(%rsp), %r12d addl 72(%rsp), %r13d addl 76(%rsp), %r14d addl 80(%rsp), %r15d movl %r15d, 92(%rsp) movl 88(%rsp), %r15d addl 84(%rsp), %r15d movl %r15d, 88(%rsp) movl 92(%rsp), %r15d movl %eax, 24(%rsp) movl %ecx, 28(%rsp) movl %edx, 32(%rsp) movl %esi, 36(%rsp) movl %edi, 40(%rsp) movl %r8d, 44(%rsp) movl %r9d, 48(%rsp) movl %r10d, 52(%rsp) movl %r11d, 56(%rsp) movl %ebx, 60(%rsp) movl %ebp, 64(%rsp) movl %r12d, 68(%rsp) movl %r13d, 72(%rsp) movl %r14d, 76(%rsp) movl %r15d, 80(%rsp) movl 88(%rsp), %eax movl %eax, 84(%rsp) movq (%rsp), %rax movq 8(%rsp), %rcx movq 16(%rsp), %rdx movq %rdx, %rsi shrq $3, %rsi movq $0, %rdi jmp Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$4 Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$5: movq (%rcx,%rdi,8), %r8 xorq 24(%rsp,%rdi,8), %r8 movq %r8, (%rax,%rdi,8) incq %rdi Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$4: cmpq %rsi, %rdi jb Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$5 shlq $3, %rdi jmp Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$2 Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$3: movb (%rcx,%rdi), %sil xorb 24(%rsp,%rdi), %sil movb %sil, (%rax,%rdi) incq %rdi Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$2: cmpq %rdx, %rdi jb Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$3 Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$1: xorq %rax, %rax movq 104(%rsp), %rbx movq 112(%rsp), %rbp movq 120(%rsp), %r12 movq 128(%rsp), %r13 movq 136(%rsp), %r14 movq 144(%rsp), %r15 movq 152(%rsp), %rsp ret
verdict-x509/verdict
70,025
deps/libcrux/sys/libjade/jazz/chacha20_avx2.s
.att_syntax .text .p2align 5 .globl _jade_stream_chacha_chacha20_ietf_amd64_avx2 .globl jade_stream_chacha_chacha20_ietf_amd64_avx2 .globl _jade_stream_chacha_chacha20_ietf_amd64_avx2_xor .globl jade_stream_chacha_chacha20_ietf_amd64_avx2_xor _jade_stream_chacha_chacha20_ietf_amd64_avx2: jade_stream_chacha_chacha20_ietf_amd64_avx2: movq %rsp, %r10 leaq -1152(%rsp), %rsp andq $-32, %rsp cmpq $257, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$1 vmovdqu glob_data + 160(%rip), %ymm0 vmovdqu glob_data + 128(%rip), %ymm1 vmovdqu %ymm0, (%rsp) vmovdqu %ymm1, 32(%rsp) vmovdqu glob_data + 256(%rip), %ymm0 vmovdqu glob_data + 288(%rip), %ymm1 vmovdqu glob_data + 320(%rip), %ymm2 vmovdqu glob_data + 352(%rip), %ymm3 vpbroadcastd (%rcx), %ymm4 vpbroadcastd 4(%rcx), %ymm5 vpbroadcastd 8(%rcx), %ymm6 vpbroadcastd 12(%rcx), %ymm7 vpbroadcastd 16(%rcx), %ymm8 vpbroadcastd 20(%rcx), %ymm9 vpbroadcastd 24(%rcx), %ymm10 vpbroadcastd 28(%rcx), %ymm11 vmovdqu glob_data + 224(%rip), %ymm12 vpbroadcastd (%rdx), %ymm13 vpbroadcastd 4(%rdx), %ymm14 vpbroadcastd 8(%rdx), %ymm15 vmovdqu %ymm0, 640(%rsp) vmovdqu %ymm1, 672(%rsp) vmovdqu %ymm2, 704(%rsp) vmovdqu %ymm3, 736(%rsp) vmovdqu %ymm4, 768(%rsp) vmovdqu %ymm5, 800(%rsp) vmovdqu %ymm6, 832(%rsp) vmovdqu %ymm7, 864(%rsp) vmovdqu %ymm8, 896(%rsp) vmovdqu %ymm9, 928(%rsp) vmovdqu %ymm10, 960(%rsp) vmovdqu %ymm11, 992(%rsp) vmovdqu %ymm12, 1024(%rsp) vmovdqu %ymm13, 1056(%rsp) vmovdqu %ymm14, 1088(%rsp) vmovdqu %ymm15, 1120(%rsp) jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2$32 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$33: vmovdqu 640(%rsp), %ymm0 vmovdqu 672(%rsp), %ymm1 vmovdqu 704(%rsp), %ymm2 vmovdqu 736(%rsp), %ymm3 vmovdqu 768(%rsp), %ymm4 vmovdqu 800(%rsp), %ymm5 vmovdqu 832(%rsp), %ymm6 vmovdqu 864(%rsp), %ymm7 vmovdqu 896(%rsp), %ymm8 vmovdqu 928(%rsp), %ymm9 vmovdqu 960(%rsp), %ymm10 vmovdqu 992(%rsp), %ymm11 vmovdqu 1024(%rsp), %ymm12 vmovdqu 1056(%rsp), %ymm13 vmovdqu 1088(%rsp), %ymm14 vmovdqu 1120(%rsp), %ymm15 vmovdqu %ymm15, 64(%rsp) movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx2$34: vpaddd %ymm4, %ymm0, %ymm0 vpxor %ymm0, %ymm12, %ymm12 vpshufb (%rsp), %ymm12, %ymm12 vpaddd %ymm12, %ymm8, %ymm8 vpaddd %ymm6, %ymm2, %ymm2 vpxor %ymm8, %ymm4, %ymm4 vpxor %ymm2, %ymm14, %ymm14 vpslld $12, %ymm4, %ymm15 vpsrld $20, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm4, %ymm0, %ymm0 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm0, %ymm12, %ymm12 vpxor %ymm10, %ymm6, %ymm6 vpshufb 32(%rsp), %ymm12, %ymm12 vpslld $12, %ymm6, %ymm15 vpsrld $20, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vpaddd %ymm12, %ymm8, %ymm8 vpaddd %ymm6, %ymm2, %ymm2 vpxor %ymm8, %ymm4, %ymm4 vpxor %ymm2, %ymm14, %ymm14 vpslld $7, %ymm4, %ymm15 vpsrld $25, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm10, %ymm6, %ymm6 vpslld $7, %ymm6, %ymm15 vpsrld $25, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vmovdqu 64(%rsp), %ymm15 vmovdqu %ymm14, 96(%rsp) vpaddd %ymm5, %ymm1, %ymm1 vpxor %ymm1, %ymm13, %ymm13 vpshufb (%rsp), %ymm13, %ymm13 vpaddd %ymm13, %ymm9, %ymm9 vpaddd %ymm7, %ymm3, %ymm3 vpxor %ymm9, %ymm5, %ymm5 vpxor %ymm3, %ymm15, %ymm14 vpslld $12, %ymm5, %ymm15 vpsrld $20, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm5, %ymm1, %ymm1 vpaddd %ymm14, %ymm11, %ymm11 vpxor %ymm1, %ymm13, %ymm13 vpxor %ymm11, %ymm7, %ymm7 vpshufb 32(%rsp), %ymm13, %ymm13 vpslld $12, %ymm7, %ymm15 vpsrld $20, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpaddd %ymm13, %ymm9, %ymm9 vpaddd %ymm7, %ymm3, %ymm3 vpxor %ymm9, %ymm5, %ymm5 vpxor %ymm3, %ymm14, %ymm14 vpslld $7, %ymm5, %ymm15 vpsrld $25, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm11, %ymm11 vpxor %ymm11, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm15 vpsrld $25, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpaddd %ymm6, %ymm1, %ymm1 vpxor %ymm1, %ymm12, %ymm12 vpshufb (%rsp), %ymm12, %ymm12 vpaddd %ymm12, %ymm11, %ymm11 vpaddd %ymm5, %ymm0, %ymm0 vpxor %ymm11, %ymm6, %ymm6 vpxor %ymm0, %ymm14, %ymm14 vpslld $12, %ymm6, %ymm15 vpsrld $20, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm6, %ymm1, %ymm1 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm1, %ymm12, %ymm12 vpxor %ymm10, %ymm5, %ymm5 vpshufb 32(%rsp), %ymm12, %ymm12 vpslld $12, %ymm5, %ymm15 vpsrld $20, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vpaddd %ymm12, %ymm11, %ymm11 vpaddd %ymm5, %ymm0, %ymm0 vpxor %ymm11, %ymm6, %ymm6 vpxor %ymm0, %ymm14, %ymm14 vpslld $7, %ymm6, %ymm15 vpsrld $25, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm10, %ymm5, %ymm5 vpslld $7, %ymm5, %ymm15 vpsrld $25, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vmovdqu 96(%rsp), %ymm15 vmovdqu %ymm14, 64(%rsp) vpaddd %ymm7, %ymm2, %ymm2 vpxor %ymm2, %ymm13, %ymm13 vpshufb (%rsp), %ymm13, %ymm13 vpaddd %ymm13, %ymm8, %ymm8 vpaddd %ymm4, %ymm3, %ymm3 vpxor %ymm8, %ymm7, %ymm7 vpxor %ymm3, %ymm15, %ymm14 vpslld $12, %ymm7, %ymm15 vpsrld $20, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm7, %ymm2, %ymm2 vpaddd %ymm14, %ymm9, %ymm9 vpxor %ymm2, %ymm13, %ymm13 vpxor %ymm9, %ymm4, %ymm4 vpshufb 32(%rsp), %ymm13, %ymm13 vpslld $12, %ymm4, %ymm15 vpsrld $20, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 vpaddd %ymm13, %ymm8, %ymm8 vpaddd %ymm4, %ymm3, %ymm3 vpxor %ymm8, %ymm7, %ymm7 vpxor %ymm3, %ymm14, %ymm14 vpslld $7, %ymm7, %ymm15 vpsrld $25, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm9, %ymm9 vpxor %ymm9, %ymm4, %ymm4 vpslld $7, %ymm4, %ymm15 vpsrld $25, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$34 vmovdqu 64(%rsp), %ymm15 vpaddd 640(%rsp), %ymm0, %ymm0 vpaddd 672(%rsp), %ymm1, %ymm1 vpaddd 704(%rsp), %ymm2, %ymm2 vpaddd 736(%rsp), %ymm3, %ymm3 vpaddd 768(%rsp), %ymm4, %ymm4 vpaddd 800(%rsp), %ymm5, %ymm5 vpaddd 832(%rsp), %ymm6, %ymm6 vpaddd 864(%rsp), %ymm7, %ymm7 vpaddd 896(%rsp), %ymm8, %ymm8 vpaddd 928(%rsp), %ymm9, %ymm9 vpaddd 960(%rsp), %ymm10, %ymm10 vpaddd 992(%rsp), %ymm11, %ymm11 vpaddd 1024(%rsp), %ymm12, %ymm12 vpaddd 1056(%rsp), %ymm13, %ymm13 vpaddd 1088(%rsp), %ymm14, %ymm14 vpaddd 1120(%rsp), %ymm15, %ymm15 vmovdqu %ymm8, 128(%rsp) vmovdqu %ymm9, 160(%rsp) vmovdqu %ymm10, 192(%rsp) vmovdqu %ymm11, 224(%rsp) vmovdqu %ymm12, 256(%rsp) vmovdqu %ymm13, 288(%rsp) vmovdqu %ymm14, 320(%rsp) vmovdqu %ymm15, 352(%rsp) vpunpckldq %ymm1, %ymm0, %ymm8 vpunpckhdq %ymm1, %ymm0, %ymm0 vpunpckldq %ymm3, %ymm2, %ymm1 vpunpckhdq %ymm3, %ymm2, %ymm2 vpunpckldq %ymm5, %ymm4, %ymm3 vpunpckhdq %ymm5, %ymm4, %ymm4 vpunpckldq %ymm7, %ymm6, %ymm5 vpunpckhdq %ymm7, %ymm6, %ymm6 vpunpcklqdq %ymm1, %ymm8, %ymm7 vpunpcklqdq %ymm5, %ymm3, %ymm9 vpunpckhqdq %ymm1, %ymm8, %ymm1 vpunpckhqdq %ymm5, %ymm3, %ymm3 vpunpcklqdq %ymm2, %ymm0, %ymm5 vpunpcklqdq %ymm6, %ymm4, %ymm8 vpunpckhqdq %ymm2, %ymm0, %ymm0 vpunpckhqdq %ymm6, %ymm4, %ymm2 vperm2i128 $32, %ymm9, %ymm7, %ymm4 vperm2i128 $49, %ymm9, %ymm7, %ymm6 vperm2i128 $32, %ymm3, %ymm1, %ymm7 vperm2i128 $49, %ymm3, %ymm1, %ymm1 vperm2i128 $32, %ymm8, %ymm5, %ymm3 vperm2i128 $49, %ymm8, %ymm5, %ymm5 vperm2i128 $32, %ymm2, %ymm0, %ymm8 vperm2i128 $49, %ymm2, %ymm0, %ymm0 vmovdqu %ymm4, (%rdi) vmovdqu %ymm7, 64(%rdi) vmovdqu %ymm3, 128(%rdi) vmovdqu %ymm8, 192(%rdi) vmovdqu %ymm6, 256(%rdi) vmovdqu %ymm1, 320(%rdi) vmovdqu %ymm5, 384(%rdi) vmovdqu %ymm0, 448(%rdi) vmovdqu 128(%rsp), %ymm0 vmovdqu 192(%rsp), %ymm1 vmovdqu 256(%rsp), %ymm2 vmovdqu 320(%rsp), %ymm3 vpunpckldq 160(%rsp), %ymm0, %ymm4 vpunpckhdq 160(%rsp), %ymm0, %ymm0 vpunpckldq 224(%rsp), %ymm1, %ymm5 vpunpckhdq 224(%rsp), %ymm1, %ymm1 vpunpckldq 288(%rsp), %ymm2, %ymm6 vpunpckhdq 288(%rsp), %ymm2, %ymm2 vpunpckldq 352(%rsp), %ymm3, %ymm7 vpunpckhdq 352(%rsp), %ymm3, %ymm3 vpunpcklqdq %ymm5, %ymm4, %ymm8 vpunpcklqdq %ymm7, %ymm6, %ymm9 vpunpckhqdq %ymm5, %ymm4, %ymm4 vpunpckhqdq %ymm7, %ymm6, %ymm5 vpunpcklqdq %ymm1, %ymm0, %ymm6 vpunpcklqdq %ymm3, %ymm2, %ymm7 vpunpckhqdq %ymm1, %ymm0, %ymm0 vpunpckhqdq %ymm3, %ymm2, %ymm1 vperm2i128 $32, %ymm9, %ymm8, %ymm2 vperm2i128 $49, %ymm9, %ymm8, %ymm3 vperm2i128 $32, %ymm5, %ymm4, %ymm8 vperm2i128 $49, %ymm5, %ymm4, %ymm4 vperm2i128 $32, %ymm7, %ymm6, %ymm5 vperm2i128 $49, %ymm7, %ymm6, %ymm6 vperm2i128 $32, %ymm1, %ymm0, %ymm7 vperm2i128 $49, %ymm1, %ymm0, %ymm0 vmovdqu %ymm2, 32(%rdi) vmovdqu %ymm8, 96(%rdi) vmovdqu %ymm5, 160(%rdi) vmovdqu %ymm7, 224(%rdi) vmovdqu %ymm3, 288(%rdi) vmovdqu %ymm4, 352(%rdi) vmovdqu %ymm6, 416(%rdi) vmovdqu %ymm0, 480(%rdi) addq $512, %rdi addq $-512, %rsi vmovdqu glob_data + 0(%rip), %ymm0 vpaddd 1024(%rsp), %ymm0, %ymm0 vmovdqu %ymm0, 1024(%rsp) Ljade_stream_chacha_chacha20_ietf_amd64_avx2$32: cmpq $512, %rsi jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$33 cmpq $0, %rsi jbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$2 vmovdqu 640(%rsp), %ymm0 vmovdqu 672(%rsp), %ymm1 vmovdqu 704(%rsp), %ymm2 vmovdqu 736(%rsp), %ymm3 vmovdqu 768(%rsp), %ymm4 vmovdqu 800(%rsp), %ymm5 vmovdqu 832(%rsp), %ymm6 vmovdqu 864(%rsp), %ymm7 vmovdqu 896(%rsp), %ymm8 vmovdqu 928(%rsp), %ymm9 vmovdqu 960(%rsp), %ymm10 vmovdqu 992(%rsp), %ymm11 vmovdqu 1024(%rsp), %ymm12 vmovdqu 1056(%rsp), %ymm13 vmovdqu 1088(%rsp), %ymm14 vmovdqu 1120(%rsp), %ymm15 vmovdqu %ymm15, 64(%rsp) movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx2$31: vpaddd %ymm4, %ymm0, %ymm0 vpxor %ymm0, %ymm12, %ymm12 vpshufb (%rsp), %ymm12, %ymm12 vpaddd %ymm12, %ymm8, %ymm8 vpaddd %ymm6, %ymm2, %ymm2 vpxor %ymm8, %ymm4, %ymm4 vpxor %ymm2, %ymm14, %ymm14 vpslld $12, %ymm4, %ymm15 vpsrld $20, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm4, %ymm0, %ymm0 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm0, %ymm12, %ymm12 vpxor %ymm10, %ymm6, %ymm6 vpshufb 32(%rsp), %ymm12, %ymm12 vpslld $12, %ymm6, %ymm15 vpsrld $20, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vpaddd %ymm12, %ymm8, %ymm8 vpaddd %ymm6, %ymm2, %ymm2 vpxor %ymm8, %ymm4, %ymm4 vpxor %ymm2, %ymm14, %ymm14 vpslld $7, %ymm4, %ymm15 vpsrld $25, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm10, %ymm6, %ymm6 vpslld $7, %ymm6, %ymm15 vpsrld $25, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vmovdqu 64(%rsp), %ymm15 vmovdqu %ymm14, 96(%rsp) vpaddd %ymm5, %ymm1, %ymm1 vpxor %ymm1, %ymm13, %ymm13 vpshufb (%rsp), %ymm13, %ymm13 vpaddd %ymm13, %ymm9, %ymm9 vpaddd %ymm7, %ymm3, %ymm3 vpxor %ymm9, %ymm5, %ymm5 vpxor %ymm3, %ymm15, %ymm14 vpslld $12, %ymm5, %ymm15 vpsrld $20, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm5, %ymm1, %ymm1 vpaddd %ymm14, %ymm11, %ymm11 vpxor %ymm1, %ymm13, %ymm13 vpxor %ymm11, %ymm7, %ymm7 vpshufb 32(%rsp), %ymm13, %ymm13 vpslld $12, %ymm7, %ymm15 vpsrld $20, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpaddd %ymm13, %ymm9, %ymm9 vpaddd %ymm7, %ymm3, %ymm3 vpxor %ymm9, %ymm5, %ymm5 vpxor %ymm3, %ymm14, %ymm14 vpslld $7, %ymm5, %ymm15 vpsrld $25, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm11, %ymm11 vpxor %ymm11, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm15 vpsrld $25, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpaddd %ymm6, %ymm1, %ymm1 vpxor %ymm1, %ymm12, %ymm12 vpshufb (%rsp), %ymm12, %ymm12 vpaddd %ymm12, %ymm11, %ymm11 vpaddd %ymm5, %ymm0, %ymm0 vpxor %ymm11, %ymm6, %ymm6 vpxor %ymm0, %ymm14, %ymm14 vpslld $12, %ymm6, %ymm15 vpsrld $20, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm6, %ymm1, %ymm1 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm1, %ymm12, %ymm12 vpxor %ymm10, %ymm5, %ymm5 vpshufb 32(%rsp), %ymm12, %ymm12 vpslld $12, %ymm5, %ymm15 vpsrld $20, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vpaddd %ymm12, %ymm11, %ymm11 vpaddd %ymm5, %ymm0, %ymm0 vpxor %ymm11, %ymm6, %ymm6 vpxor %ymm0, %ymm14, %ymm14 vpslld $7, %ymm6, %ymm15 vpsrld $25, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm10, %ymm5, %ymm5 vpslld $7, %ymm5, %ymm15 vpsrld $25, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vmovdqu 96(%rsp), %ymm15 vmovdqu %ymm14, 64(%rsp) vpaddd %ymm7, %ymm2, %ymm2 vpxor %ymm2, %ymm13, %ymm13 vpshufb (%rsp), %ymm13, %ymm13 vpaddd %ymm13, %ymm8, %ymm8 vpaddd %ymm4, %ymm3, %ymm3 vpxor %ymm8, %ymm7, %ymm7 vpxor %ymm3, %ymm15, %ymm14 vpslld $12, %ymm7, %ymm15 vpsrld $20, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm7, %ymm2, %ymm2 vpaddd %ymm14, %ymm9, %ymm9 vpxor %ymm2, %ymm13, %ymm13 vpxor %ymm9, %ymm4, %ymm4 vpshufb 32(%rsp), %ymm13, %ymm13 vpslld $12, %ymm4, %ymm15 vpsrld $20, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 vpaddd %ymm13, %ymm8, %ymm8 vpaddd %ymm4, %ymm3, %ymm3 vpxor %ymm8, %ymm7, %ymm7 vpxor %ymm3, %ymm14, %ymm14 vpslld $7, %ymm7, %ymm15 vpsrld $25, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm9, %ymm9 vpxor %ymm9, %ymm4, %ymm4 vpslld $7, %ymm4, %ymm15 vpsrld $25, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$31 vmovdqu 64(%rsp), %ymm15 vpaddd 640(%rsp), %ymm0, %ymm0 vpaddd 672(%rsp), %ymm1, %ymm1 vpaddd 704(%rsp), %ymm2, %ymm2 vpaddd 736(%rsp), %ymm3, %ymm3 vpaddd 768(%rsp), %ymm4, %ymm4 vpaddd 800(%rsp), %ymm5, %ymm5 vpaddd 832(%rsp), %ymm6, %ymm6 vpaddd 864(%rsp), %ymm7, %ymm7 vpaddd 896(%rsp), %ymm8, %ymm8 vpaddd 928(%rsp), %ymm9, %ymm9 vpaddd 960(%rsp), %ymm10, %ymm10 vpaddd 992(%rsp), %ymm11, %ymm11 vpaddd 1024(%rsp), %ymm12, %ymm12 vpaddd 1056(%rsp), %ymm13, %ymm13 vpaddd 1088(%rsp), %ymm14, %ymm14 vpaddd 1120(%rsp), %ymm15, %ymm15 vmovdqu %ymm8, 128(%rsp) vmovdqu %ymm9, 160(%rsp) vmovdqu %ymm10, 192(%rsp) vmovdqu %ymm11, 224(%rsp) vmovdqu %ymm12, 256(%rsp) vmovdqu %ymm13, 288(%rsp) vmovdqu %ymm14, 320(%rsp) vmovdqu %ymm15, 352(%rsp) vpunpckldq %ymm1, %ymm0, %ymm8 vpunpckhdq %ymm1, %ymm0, %ymm0 vpunpckldq %ymm3, %ymm2, %ymm1 vpunpckhdq %ymm3, %ymm2, %ymm2 vpunpckldq %ymm5, %ymm4, %ymm3 vpunpckhdq %ymm5, %ymm4, %ymm4 vpunpckldq %ymm7, %ymm6, %ymm5 vpunpckhdq %ymm7, %ymm6, %ymm6 vpunpcklqdq %ymm1, %ymm8, %ymm7 vpunpcklqdq %ymm5, %ymm3, %ymm9 vpunpckhqdq %ymm1, %ymm8, %ymm1 vpunpckhqdq %ymm5, %ymm3, %ymm3 vpunpcklqdq %ymm2, %ymm0, %ymm5 vpunpcklqdq %ymm6, %ymm4, %ymm8 vpunpckhqdq %ymm2, %ymm0, %ymm0 vpunpckhqdq %ymm6, %ymm4, %ymm2 vperm2i128 $32, %ymm9, %ymm7, %ymm4 vperm2i128 $49, %ymm9, %ymm7, %ymm6 vperm2i128 $32, %ymm3, %ymm1, %ymm7 vperm2i128 $49, %ymm3, %ymm1, %ymm1 vperm2i128 $32, %ymm8, %ymm5, %ymm3 vperm2i128 $49, %ymm8, %ymm5, %ymm5 vperm2i128 $32, %ymm2, %ymm0, %ymm8 vperm2i128 $49, %ymm2, %ymm0, %ymm0 vmovdqu %ymm4, 384(%rsp) vmovdqu %ymm7, 416(%rsp) vmovdqu %ymm3, 448(%rsp) vmovdqu %ymm8, 480(%rsp) vmovdqu %ymm6, 512(%rsp) vmovdqu %ymm1, 544(%rsp) vmovdqu %ymm5, 576(%rsp) vmovdqu %ymm0, 608(%rsp) vmovdqu 128(%rsp), %ymm0 vmovdqu 192(%rsp), %ymm1 vmovdqu 256(%rsp), %ymm2 vmovdqu 320(%rsp), %ymm3 vpunpckldq 160(%rsp), %ymm0, %ymm4 vpunpckhdq 160(%rsp), %ymm0, %ymm0 vpunpckldq 224(%rsp), %ymm1, %ymm5 vpunpckhdq 224(%rsp), %ymm1, %ymm1 vpunpckldq 288(%rsp), %ymm2, %ymm6 vpunpckhdq 288(%rsp), %ymm2, %ymm2 vpunpckldq 352(%rsp), %ymm3, %ymm7 vpunpckhdq 352(%rsp), %ymm3, %ymm3 vpunpcklqdq %ymm5, %ymm4, %ymm8 vpunpcklqdq %ymm7, %ymm6, %ymm9 vpunpckhqdq %ymm5, %ymm4, %ymm4 vpunpckhqdq %ymm7, %ymm6, %ymm5 vpunpcklqdq %ymm1, %ymm0, %ymm6 vpunpcklqdq %ymm3, %ymm2, %ymm7 vpunpckhqdq %ymm1, %ymm0, %ymm0 vpunpckhqdq %ymm3, %ymm2, %ymm1 vperm2i128 $32, %ymm9, %ymm8, %ymm2 vperm2i128 $49, %ymm9, %ymm8, %ymm3 vperm2i128 $32, %ymm5, %ymm4, %ymm8 vperm2i128 $49, %ymm5, %ymm4, %ymm4 vperm2i128 $32, %ymm7, %ymm6, %ymm5 vperm2i128 $49, %ymm7, %ymm6, %ymm6 vperm2i128 $32, %ymm1, %ymm0, %ymm7 vperm2i128 $49, %ymm1, %ymm0, %ymm0 vmovdqu 384(%rsp), %ymm12 vmovdqu %ymm2, %ymm11 vmovdqu 416(%rsp), %ymm10 vmovdqu %ymm8, %ymm9 vmovdqu 448(%rsp), %ymm8 vmovdqu 480(%rsp), %ymm2 vmovdqu %ymm7, %ymm1 cmpq $256, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$30 vmovdqu %ymm12, (%rdi) vmovdqu %ymm11, 32(%rdi) vmovdqu %ymm10, 64(%rdi) vmovdqu %ymm9, 96(%rdi) vmovdqu %ymm8, 128(%rdi) vmovdqu %ymm5, 160(%rdi) vmovdqu %ymm2, 192(%rdi) vmovdqu %ymm1, 224(%rdi) addq $256, %rdi addq $-256, %rsi vmovdqu 512(%rsp), %ymm12 vmovdqu %ymm3, %ymm11 vmovdqu 544(%rsp), %ymm10 vmovdqu %ymm4, %ymm9 vmovdqu 576(%rsp), %ymm8 vmovdqu %ymm6, %ymm5 vmovdqu 608(%rsp), %ymm2 vmovdqu %ymm0, %ymm1 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$30: cmpq $128, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$29 vmovdqu %ymm12, (%rdi) vmovdqu %ymm11, 32(%rdi) vmovdqu %ymm10, 64(%rdi) vmovdqu %ymm9, 96(%rdi) addq $128, %rdi addq $-128, %rsi vmovdqu %ymm8, %ymm12 vmovdqu %ymm5, %ymm11 vmovdqu %ymm2, %ymm10 vmovdqu %ymm1, %ymm9 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$29: cmpq $64, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$28 vmovdqu %ymm12, (%rdi) vmovdqu %ymm11, 32(%rdi) addq $64, %rdi addq $-64, %rsi vmovdqu %ymm10, %ymm12 vmovdqu %ymm9, %ymm11 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$28: cmpq $32, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$27 vmovdqu %ymm12, (%rdi) addq $32, %rdi addq $-32, %rsi vmovdqu %ymm11, %ymm12 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$27: vmovdqu %xmm12, %xmm0 cmpq $16, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$26 vmovdqu %xmm0, (%rdi) addq $16, %rdi addq $-16, %rsi vextracti128 $1, %ymm12, %xmm0 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$26: vpextrq $0, %xmm0, %rax cmpq $8, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$23 movq %rax, (%rdi) addq $8, %rdi addq $-8, %rsi vpextrq $1, %xmm0, %rax Ljade_stream_chacha_chacha20_ietf_amd64_avx2$25: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2$23 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$24: movb %al, %cl movb %cl, (%rdi) shrq $8, %rax incq %rdi addq $-1, %rsi Ljade_stream_chacha_chacha20_ietf_amd64_avx2$23: cmpq $0, %rsi jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$24 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$22: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2$2 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$1: vmovdqu glob_data + 160(%rip), %ymm0 vmovdqu glob_data + 128(%rip), %ymm1 vmovdqu glob_data + 480(%rip), %ymm2 vbroadcasti128 (%rcx), %ymm3 vbroadcasti128 16(%rcx), %ymm4 vpxor %xmm5, %xmm5, %xmm5 vpinsrd $1, (%rdx), %xmm5, %xmm5 vpinsrq $1, 4(%rdx), %xmm5, %xmm5 vpxor %ymm6, %ymm6, %ymm6 vinserti128 $0, %xmm5, %ymm6, %ymm6 vinserti128 $1, %xmm5, %ymm6, %ymm5 vpaddd glob_data + 96(%rip), %ymm5, %ymm5 jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2$19 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$20: vmovdqu %ymm2, %ymm6 vmovdqu %ymm3, %ymm7 vmovdqu %ymm4, %ymm8 vmovdqu %ymm5, %ymm9 vmovdqu %ymm2, %ymm10 vmovdqu %ymm3, %ymm11 vmovdqu %ymm4, %ymm12 vmovdqu %ymm5, %ymm13 vpaddd glob_data + 64(%rip), %ymm13, %ymm13 movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx2$21: vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm0, %ymm9, %ymm9 vpshufb %ymm0, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $12, %ymm7, %ymm14 vpsrld $20, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $12, %ymm11, %ymm14 vpsrld $20, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm1, %ymm9, %ymm9 vpshufb %ymm1, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm14 vpsrld $25, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $7, %ymm11, %ymm14 vpsrld $25, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpshufd $57, %ymm7, %ymm7 vpshufd $78, %ymm8, %ymm8 vpshufd $-109, %ymm9, %ymm9 vpshufd $57, %ymm11, %ymm11 vpshufd $78, %ymm12, %ymm12 vpshufd $-109, %ymm13, %ymm13 vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm0, %ymm9, %ymm9 vpshufb %ymm0, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $12, %ymm7, %ymm14 vpsrld $20, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $12, %ymm11, %ymm14 vpsrld $20, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm1, %ymm9, %ymm9 vpshufb %ymm1, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm14 vpsrld $25, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $7, %ymm11, %ymm14 vpsrld $25, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpshufd $-109, %ymm7, %ymm7 vpshufd $78, %ymm8, %ymm8 vpshufd $57, %ymm9, %ymm9 vpshufd $-109, %ymm11, %ymm11 vpshufd $78, %ymm12, %ymm12 vpshufd $57, %ymm13, %ymm13 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$21 vpaddd %ymm2, %ymm6, %ymm6 vpaddd %ymm3, %ymm7, %ymm7 vpaddd %ymm4, %ymm8, %ymm8 vpaddd %ymm5, %ymm9, %ymm9 vpaddd %ymm2, %ymm10, %ymm10 vpaddd %ymm3, %ymm11, %ymm11 vpaddd %ymm4, %ymm12, %ymm12 vpaddd %ymm5, %ymm13, %ymm13 vpaddd glob_data + 64(%rip), %ymm13, %ymm13 vperm2i128 $32, %ymm7, %ymm6, %ymm14 vperm2i128 $32, %ymm9, %ymm8, %ymm15 vperm2i128 $49, %ymm7, %ymm6, %ymm6 vperm2i128 $49, %ymm9, %ymm8, %ymm7 vperm2i128 $32, %ymm11, %ymm10, %ymm8 vperm2i128 $32, %ymm13, %ymm12, %ymm9 vperm2i128 $49, %ymm11, %ymm10, %ymm10 vperm2i128 $49, %ymm13, %ymm12, %ymm11 vmovdqu %ymm14, (%rdi) vmovdqu %ymm15, 32(%rdi) vmovdqu %ymm6, 64(%rdi) vmovdqu %ymm7, 96(%rdi) vmovdqu %ymm8, 128(%rdi) vmovdqu %ymm9, 160(%rdi) vmovdqu %ymm10, 192(%rdi) vmovdqu %ymm11, 224(%rdi) addq $256, %rdi addq $-256, %rsi vpaddd glob_data + 32(%rip), %ymm5, %ymm5 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$19: cmpq $256, %rsi jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$20 cmpq $128, %rsi jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$3 vmovdqu %ymm2, %ymm6 vmovdqu %ymm3, %ymm7 vmovdqu %ymm4, %ymm8 vmovdqu %ymm5, %ymm9 movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx2$18: vpaddd %ymm7, %ymm6, %ymm6 vpxor %ymm6, %ymm9, %ymm9 vpshufb %ymm0, %ymm9, %ymm9 vpaddd %ymm9, %ymm8, %ymm8 vpxor %ymm8, %ymm7, %ymm7 vpslld $12, %ymm7, %ymm10 vpsrld $20, %ymm7, %ymm7 vpxor %ymm10, %ymm7, %ymm7 vpaddd %ymm7, %ymm6, %ymm6 vpxor %ymm6, %ymm9, %ymm9 vpshufb %ymm1, %ymm9, %ymm9 vpaddd %ymm9, %ymm8, %ymm8 vpxor %ymm8, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm10 vpsrld $25, %ymm7, %ymm7 vpxor %ymm10, %ymm7, %ymm7 vpshufd $57, %ymm7, %ymm7 vpshufd $78, %ymm8, %ymm8 vpshufd $-109, %ymm9, %ymm9 vpaddd %ymm7, %ymm6, %ymm6 vpxor %ymm6, %ymm9, %ymm9 vpshufb %ymm0, %ymm9, %ymm9 vpaddd %ymm9, %ymm8, %ymm8 vpxor %ymm8, %ymm7, %ymm7 vpslld $12, %ymm7, %ymm10 vpsrld $20, %ymm7, %ymm7 vpxor %ymm10, %ymm7, %ymm7 vpaddd %ymm7, %ymm6, %ymm6 vpxor %ymm6, %ymm9, %ymm9 vpshufb %ymm1, %ymm9, %ymm9 vpaddd %ymm9, %ymm8, %ymm8 vpxor %ymm8, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm10 vpsrld $25, %ymm7, %ymm7 vpxor %ymm10, %ymm7, %ymm7 vpshufd $-109, %ymm7, %ymm7 vpshufd $78, %ymm8, %ymm8 vpshufd $57, %ymm9, %ymm9 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$18 vpaddd %ymm2, %ymm6, %ymm0 vpaddd %ymm3, %ymm7, %ymm1 vpaddd %ymm4, %ymm8, %ymm2 vpaddd %ymm5, %ymm9, %ymm3 vperm2i128 $32, %ymm1, %ymm0, %ymm5 vperm2i128 $32, %ymm3, %ymm2, %ymm4 vperm2i128 $49, %ymm1, %ymm0, %ymm0 vperm2i128 $49, %ymm3, %ymm2, %ymm1 cmpq $64, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$17 vmovdqu %ymm5, (%rdi) vmovdqu %ymm4, 32(%rdi) addq $64, %rdi addq $-64, %rsi vmovdqu %ymm0, %ymm5 vmovdqu %ymm1, %ymm4 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$17: cmpq $32, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$16 vmovdqu %ymm5, (%rdi) addq $32, %rdi addq $-32, %rsi vmovdqu %ymm4, %ymm5 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$16: vmovdqu %xmm5, %xmm0 cmpq $16, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$15 vmovdqu %xmm0, (%rdi) addq $16, %rdi addq $-16, %rsi vextracti128 $1, %ymm5, %xmm0 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$15: vpextrq $0, %xmm0, %rax cmpq $8, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$12 movq %rax, (%rdi) addq $8, %rdi addq $-8, %rsi vpextrq $1, %xmm0, %rax Ljade_stream_chacha_chacha20_ietf_amd64_avx2$14: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2$12 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$13: movb %al, %cl movb %cl, (%rdi) shrq $8, %rax incq %rdi addq $-1, %rsi Ljade_stream_chacha_chacha20_ietf_amd64_avx2$12: cmpq $0, %rsi jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$13 jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2$2 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$3: vmovdqu %ymm2, %ymm6 vmovdqu %ymm3, %ymm7 vmovdqu %ymm4, %ymm8 vmovdqu %ymm5, %ymm9 vmovdqu %ymm2, %ymm10 vmovdqu %ymm3, %ymm11 vmovdqu %ymm4, %ymm12 vmovdqu %ymm5, %ymm13 vpaddd glob_data + 64(%rip), %ymm13, %ymm13 movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx2$11: vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm0, %ymm9, %ymm9 vpshufb %ymm0, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $12, %ymm7, %ymm14 vpsrld $20, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $12, %ymm11, %ymm14 vpsrld $20, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm1, %ymm9, %ymm9 vpshufb %ymm1, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm14 vpsrld $25, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $7, %ymm11, %ymm14 vpsrld $25, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpshufd $57, %ymm7, %ymm7 vpshufd $78, %ymm8, %ymm8 vpshufd $-109, %ymm9, %ymm9 vpshufd $57, %ymm11, %ymm11 vpshufd $78, %ymm12, %ymm12 vpshufd $-109, %ymm13, %ymm13 vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm0, %ymm9, %ymm9 vpshufb %ymm0, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $12, %ymm7, %ymm14 vpsrld $20, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $12, %ymm11, %ymm14 vpsrld $20, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm1, %ymm9, %ymm9 vpshufb %ymm1, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm14 vpsrld $25, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $7, %ymm11, %ymm14 vpsrld $25, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpshufd $-109, %ymm7, %ymm7 vpshufd $78, %ymm8, %ymm8 vpshufd $57, %ymm9, %ymm9 vpshufd $-109, %ymm11, %ymm11 vpshufd $78, %ymm12, %ymm12 vpshufd $57, %ymm13, %ymm13 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$11 vpaddd %ymm2, %ymm6, %ymm0 vpaddd %ymm3, %ymm7, %ymm1 vpaddd %ymm4, %ymm8, %ymm6 vpaddd %ymm5, %ymm9, %ymm7 vpaddd %ymm2, %ymm10, %ymm2 vpaddd %ymm3, %ymm11, %ymm3 vpaddd %ymm4, %ymm12, %ymm4 vpaddd %ymm5, %ymm13, %ymm5 vpaddd glob_data + 64(%rip), %ymm5, %ymm5 vperm2i128 $32, %ymm1, %ymm0, %ymm8 vperm2i128 $32, %ymm7, %ymm6, %ymm9 vperm2i128 $49, %ymm1, %ymm0, %ymm0 vperm2i128 $49, %ymm7, %ymm6, %ymm1 vperm2i128 $32, %ymm3, %ymm2, %ymm7 vperm2i128 $32, %ymm5, %ymm4, %ymm6 vperm2i128 $49, %ymm3, %ymm2, %ymm2 vperm2i128 $49, %ymm5, %ymm4, %ymm3 vmovdqu %ymm8, (%rdi) vmovdqu %ymm9, 32(%rdi) vmovdqu %ymm0, 64(%rdi) vmovdqu %ymm1, 96(%rdi) addq $128, %rdi addq $-128, %rsi cmpq $64, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$10 vmovdqu %ymm7, (%rdi) vmovdqu %ymm6, 32(%rdi) addq $64, %rdi addq $-64, %rsi vmovdqu %ymm2, %ymm7 vmovdqu %ymm3, %ymm6 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$10: cmpq $32, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$9 vmovdqu %ymm7, (%rdi) addq $32, %rdi addq $-32, %rsi vmovdqu %ymm6, %ymm7 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$9: vmovdqu %xmm7, %xmm0 cmpq $16, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$8 vmovdqu %xmm0, (%rdi) addq $16, %rdi addq $-16, %rsi vextracti128 $1, %ymm7, %xmm0 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$8: vpextrq $0, %xmm0, %rax cmpq $8, %rsi jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$5 movq %rax, (%rdi) addq $8, %rdi addq $-8, %rsi vpextrq $1, %xmm0, %rax Ljade_stream_chacha_chacha20_ietf_amd64_avx2$7: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2$5 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$6: movb %al, %cl movb %cl, (%rdi) shrq $8, %rax incq %rdi addq $-1, %rsi Ljade_stream_chacha_chacha20_ietf_amd64_avx2$5: cmpq $0, %rsi jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$6 Ljade_stream_chacha_chacha20_ietf_amd64_avx2$4: Ljade_stream_chacha_chacha20_ietf_amd64_avx2$2: xorq %rax, %rax movq %r10, %rsp ret _jade_stream_chacha_chacha20_ietf_amd64_avx2_xor: jade_stream_chacha_chacha20_ietf_amd64_avx2_xor: movq %rsp, %r10 leaq -1152(%rsp), %rsp andq $-32, %rsp cmpq $257, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$1 vmovdqu glob_data + 160(%rip), %ymm0 vmovdqu glob_data + 128(%rip), %ymm1 vmovdqu %ymm0, (%rsp) vmovdqu %ymm1, 32(%rsp) vmovdqu glob_data + 256(%rip), %ymm0 vmovdqu glob_data + 288(%rip), %ymm1 vmovdqu glob_data + 320(%rip), %ymm2 vmovdqu glob_data + 352(%rip), %ymm3 vpbroadcastd (%r8), %ymm4 vpbroadcastd 4(%r8), %ymm5 vpbroadcastd 8(%r8), %ymm6 vpbroadcastd 12(%r8), %ymm7 vpbroadcastd 16(%r8), %ymm8 vpbroadcastd 20(%r8), %ymm9 vpbroadcastd 24(%r8), %ymm10 vpbroadcastd 28(%r8), %ymm11 vmovdqu glob_data + 224(%rip), %ymm12 vpbroadcastd (%rcx), %ymm13 vpbroadcastd 4(%rcx), %ymm14 vpbroadcastd 8(%rcx), %ymm15 vmovdqu %ymm0, 640(%rsp) vmovdqu %ymm1, 672(%rsp) vmovdqu %ymm2, 704(%rsp) vmovdqu %ymm3, 736(%rsp) vmovdqu %ymm4, 768(%rsp) vmovdqu %ymm5, 800(%rsp) vmovdqu %ymm6, 832(%rsp) vmovdqu %ymm7, 864(%rsp) vmovdqu %ymm8, 896(%rsp) vmovdqu %ymm9, 928(%rsp) vmovdqu %ymm10, 960(%rsp) vmovdqu %ymm11, 992(%rsp) vmovdqu %ymm12, 1024(%rsp) vmovdqu %ymm13, 1056(%rsp) vmovdqu %ymm14, 1088(%rsp) vmovdqu %ymm15, 1120(%rsp) jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$32 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$33: vmovdqu 640(%rsp), %ymm0 vmovdqu 672(%rsp), %ymm1 vmovdqu 704(%rsp), %ymm2 vmovdqu 736(%rsp), %ymm3 vmovdqu 768(%rsp), %ymm4 vmovdqu 800(%rsp), %ymm5 vmovdqu 832(%rsp), %ymm6 vmovdqu 864(%rsp), %ymm7 vmovdqu 896(%rsp), %ymm8 vmovdqu 928(%rsp), %ymm9 vmovdqu 960(%rsp), %ymm10 vmovdqu 992(%rsp), %ymm11 vmovdqu 1024(%rsp), %ymm12 vmovdqu 1056(%rsp), %ymm13 vmovdqu 1088(%rsp), %ymm14 vmovdqu 1120(%rsp), %ymm15 vmovdqu %ymm15, 64(%rsp) movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$34: vpaddd %ymm4, %ymm0, %ymm0 vpxor %ymm0, %ymm12, %ymm12 vpshufb (%rsp), %ymm12, %ymm12 vpaddd %ymm12, %ymm8, %ymm8 vpaddd %ymm6, %ymm2, %ymm2 vpxor %ymm8, %ymm4, %ymm4 vpxor %ymm2, %ymm14, %ymm14 vpslld $12, %ymm4, %ymm15 vpsrld $20, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm4, %ymm0, %ymm0 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm0, %ymm12, %ymm12 vpxor %ymm10, %ymm6, %ymm6 vpshufb 32(%rsp), %ymm12, %ymm12 vpslld $12, %ymm6, %ymm15 vpsrld $20, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vpaddd %ymm12, %ymm8, %ymm8 vpaddd %ymm6, %ymm2, %ymm2 vpxor %ymm8, %ymm4, %ymm4 vpxor %ymm2, %ymm14, %ymm14 vpslld $7, %ymm4, %ymm15 vpsrld $25, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm10, %ymm6, %ymm6 vpslld $7, %ymm6, %ymm15 vpsrld $25, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vmovdqu 64(%rsp), %ymm15 vmovdqu %ymm14, 96(%rsp) vpaddd %ymm5, %ymm1, %ymm1 vpxor %ymm1, %ymm13, %ymm13 vpshufb (%rsp), %ymm13, %ymm13 vpaddd %ymm13, %ymm9, %ymm9 vpaddd %ymm7, %ymm3, %ymm3 vpxor %ymm9, %ymm5, %ymm5 vpxor %ymm3, %ymm15, %ymm14 vpslld $12, %ymm5, %ymm15 vpsrld $20, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm5, %ymm1, %ymm1 vpaddd %ymm14, %ymm11, %ymm11 vpxor %ymm1, %ymm13, %ymm13 vpxor %ymm11, %ymm7, %ymm7 vpshufb 32(%rsp), %ymm13, %ymm13 vpslld $12, %ymm7, %ymm15 vpsrld $20, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpaddd %ymm13, %ymm9, %ymm9 vpaddd %ymm7, %ymm3, %ymm3 vpxor %ymm9, %ymm5, %ymm5 vpxor %ymm3, %ymm14, %ymm14 vpslld $7, %ymm5, %ymm15 vpsrld $25, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm11, %ymm11 vpxor %ymm11, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm15 vpsrld $25, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpaddd %ymm6, %ymm1, %ymm1 vpxor %ymm1, %ymm12, %ymm12 vpshufb (%rsp), %ymm12, %ymm12 vpaddd %ymm12, %ymm11, %ymm11 vpaddd %ymm5, %ymm0, %ymm0 vpxor %ymm11, %ymm6, %ymm6 vpxor %ymm0, %ymm14, %ymm14 vpslld $12, %ymm6, %ymm15 vpsrld $20, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm6, %ymm1, %ymm1 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm1, %ymm12, %ymm12 vpxor %ymm10, %ymm5, %ymm5 vpshufb 32(%rsp), %ymm12, %ymm12 vpslld $12, %ymm5, %ymm15 vpsrld $20, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vpaddd %ymm12, %ymm11, %ymm11 vpaddd %ymm5, %ymm0, %ymm0 vpxor %ymm11, %ymm6, %ymm6 vpxor %ymm0, %ymm14, %ymm14 vpslld $7, %ymm6, %ymm15 vpsrld $25, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm10, %ymm5, %ymm5 vpslld $7, %ymm5, %ymm15 vpsrld $25, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vmovdqu 96(%rsp), %ymm15 vmovdqu %ymm14, 64(%rsp) vpaddd %ymm7, %ymm2, %ymm2 vpxor %ymm2, %ymm13, %ymm13 vpshufb (%rsp), %ymm13, %ymm13 vpaddd %ymm13, %ymm8, %ymm8 vpaddd %ymm4, %ymm3, %ymm3 vpxor %ymm8, %ymm7, %ymm7 vpxor %ymm3, %ymm15, %ymm14 vpslld $12, %ymm7, %ymm15 vpsrld $20, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm7, %ymm2, %ymm2 vpaddd %ymm14, %ymm9, %ymm9 vpxor %ymm2, %ymm13, %ymm13 vpxor %ymm9, %ymm4, %ymm4 vpshufb 32(%rsp), %ymm13, %ymm13 vpslld $12, %ymm4, %ymm15 vpsrld $20, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 vpaddd %ymm13, %ymm8, %ymm8 vpaddd %ymm4, %ymm3, %ymm3 vpxor %ymm8, %ymm7, %ymm7 vpxor %ymm3, %ymm14, %ymm14 vpslld $7, %ymm7, %ymm15 vpsrld $25, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm9, %ymm9 vpxor %ymm9, %ymm4, %ymm4 vpslld $7, %ymm4, %ymm15 vpsrld $25, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$34 vmovdqu 64(%rsp), %ymm15 vpaddd 640(%rsp), %ymm0, %ymm0 vpaddd 672(%rsp), %ymm1, %ymm1 vpaddd 704(%rsp), %ymm2, %ymm2 vpaddd 736(%rsp), %ymm3, %ymm3 vpaddd 768(%rsp), %ymm4, %ymm4 vpaddd 800(%rsp), %ymm5, %ymm5 vpaddd 832(%rsp), %ymm6, %ymm6 vpaddd 864(%rsp), %ymm7, %ymm7 vpaddd 896(%rsp), %ymm8, %ymm8 vpaddd 928(%rsp), %ymm9, %ymm9 vpaddd 960(%rsp), %ymm10, %ymm10 vpaddd 992(%rsp), %ymm11, %ymm11 vpaddd 1024(%rsp), %ymm12, %ymm12 vpaddd 1056(%rsp), %ymm13, %ymm13 vpaddd 1088(%rsp), %ymm14, %ymm14 vpaddd 1120(%rsp), %ymm15, %ymm15 vmovdqu %ymm8, 128(%rsp) vmovdqu %ymm9, 160(%rsp) vmovdqu %ymm10, 192(%rsp) vmovdqu %ymm11, 224(%rsp) vmovdqu %ymm12, 256(%rsp) vmovdqu %ymm13, 288(%rsp) vmovdqu %ymm14, 320(%rsp) vmovdqu %ymm15, 352(%rsp) vpunpckldq %ymm1, %ymm0, %ymm8 vpunpckhdq %ymm1, %ymm0, %ymm0 vpunpckldq %ymm3, %ymm2, %ymm1 vpunpckhdq %ymm3, %ymm2, %ymm2 vpunpckldq %ymm5, %ymm4, %ymm3 vpunpckhdq %ymm5, %ymm4, %ymm4 vpunpckldq %ymm7, %ymm6, %ymm5 vpunpckhdq %ymm7, %ymm6, %ymm6 vpunpcklqdq %ymm1, %ymm8, %ymm7 vpunpcklqdq %ymm5, %ymm3, %ymm9 vpunpckhqdq %ymm1, %ymm8, %ymm1 vpunpckhqdq %ymm5, %ymm3, %ymm3 vpunpcklqdq %ymm2, %ymm0, %ymm5 vpunpcklqdq %ymm6, %ymm4, %ymm8 vpunpckhqdq %ymm2, %ymm0, %ymm0 vpunpckhqdq %ymm6, %ymm4, %ymm2 vperm2i128 $32, %ymm9, %ymm7, %ymm4 vperm2i128 $49, %ymm9, %ymm7, %ymm6 vperm2i128 $32, %ymm3, %ymm1, %ymm7 vperm2i128 $49, %ymm3, %ymm1, %ymm1 vperm2i128 $32, %ymm8, %ymm5, %ymm3 vperm2i128 $49, %ymm8, %ymm5, %ymm5 vperm2i128 $32, %ymm2, %ymm0, %ymm8 vperm2i128 $49, %ymm2, %ymm0, %ymm0 vpxor (%rsi), %ymm4, %ymm2 vpxor 64(%rsi), %ymm7, %ymm4 vpxor 128(%rsi), %ymm3, %ymm3 vpxor 192(%rsi), %ymm8, %ymm7 vpxor 256(%rsi), %ymm6, %ymm6 vpxor 320(%rsi), %ymm1, %ymm1 vpxor 384(%rsi), %ymm5, %ymm5 vpxor 448(%rsi), %ymm0, %ymm0 vmovdqu %ymm2, (%rdi) vmovdqu %ymm4, 64(%rdi) vmovdqu %ymm3, 128(%rdi) vmovdqu %ymm7, 192(%rdi) vmovdqu %ymm6, 256(%rdi) vmovdqu %ymm1, 320(%rdi) vmovdqu %ymm5, 384(%rdi) vmovdqu %ymm0, 448(%rdi) vmovdqu 128(%rsp), %ymm0 vmovdqu 192(%rsp), %ymm1 vmovdqu 256(%rsp), %ymm2 vmovdqu 320(%rsp), %ymm3 vpunpckldq 160(%rsp), %ymm0, %ymm4 vpunpckhdq 160(%rsp), %ymm0, %ymm0 vpunpckldq 224(%rsp), %ymm1, %ymm5 vpunpckhdq 224(%rsp), %ymm1, %ymm1 vpunpckldq 288(%rsp), %ymm2, %ymm6 vpunpckhdq 288(%rsp), %ymm2, %ymm2 vpunpckldq 352(%rsp), %ymm3, %ymm7 vpunpckhdq 352(%rsp), %ymm3, %ymm3 vpunpcklqdq %ymm5, %ymm4, %ymm8 vpunpcklqdq %ymm7, %ymm6, %ymm9 vpunpckhqdq %ymm5, %ymm4, %ymm4 vpunpckhqdq %ymm7, %ymm6, %ymm5 vpunpcklqdq %ymm1, %ymm0, %ymm6 vpunpcklqdq %ymm3, %ymm2, %ymm7 vpunpckhqdq %ymm1, %ymm0, %ymm0 vpunpckhqdq %ymm3, %ymm2, %ymm1 vperm2i128 $32, %ymm9, %ymm8, %ymm2 vperm2i128 $49, %ymm9, %ymm8, %ymm3 vperm2i128 $32, %ymm5, %ymm4, %ymm8 vperm2i128 $49, %ymm5, %ymm4, %ymm4 vperm2i128 $32, %ymm7, %ymm6, %ymm5 vperm2i128 $49, %ymm7, %ymm6, %ymm6 vperm2i128 $32, %ymm1, %ymm0, %ymm7 vperm2i128 $49, %ymm1, %ymm0, %ymm0 vpxor 32(%rsi), %ymm2, %ymm1 vpxor 96(%rsi), %ymm8, %ymm2 vpxor 160(%rsi), %ymm5, %ymm5 vpxor 224(%rsi), %ymm7, %ymm7 vpxor 288(%rsi), %ymm3, %ymm3 vpxor 352(%rsi), %ymm4, %ymm4 vpxor 416(%rsi), %ymm6, %ymm6 vpxor 480(%rsi), %ymm0, %ymm0 vmovdqu %ymm1, 32(%rdi) vmovdqu %ymm2, 96(%rdi) vmovdqu %ymm5, 160(%rdi) vmovdqu %ymm7, 224(%rdi) vmovdqu %ymm3, 288(%rdi) vmovdqu %ymm4, 352(%rdi) vmovdqu %ymm6, 416(%rdi) vmovdqu %ymm0, 480(%rdi) addq $512, %rdi addq $512, %rsi addq $-512, %rdx vmovdqu glob_data + 0(%rip), %ymm0 vpaddd 1024(%rsp), %ymm0, %ymm0 vmovdqu %ymm0, 1024(%rsp) Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$32: cmpq $512, %rdx jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$33 cmpq $0, %rdx jbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$2 vmovdqu 640(%rsp), %ymm0 vmovdqu 672(%rsp), %ymm1 vmovdqu 704(%rsp), %ymm2 vmovdqu 736(%rsp), %ymm3 vmovdqu 768(%rsp), %ymm4 vmovdqu 800(%rsp), %ymm5 vmovdqu 832(%rsp), %ymm6 vmovdqu 864(%rsp), %ymm7 vmovdqu 896(%rsp), %ymm8 vmovdqu 928(%rsp), %ymm9 vmovdqu 960(%rsp), %ymm10 vmovdqu 992(%rsp), %ymm11 vmovdqu 1024(%rsp), %ymm12 vmovdqu 1056(%rsp), %ymm13 vmovdqu 1088(%rsp), %ymm14 vmovdqu 1120(%rsp), %ymm15 vmovdqu %ymm15, 64(%rsp) movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$31: vpaddd %ymm4, %ymm0, %ymm0 vpxor %ymm0, %ymm12, %ymm12 vpshufb (%rsp), %ymm12, %ymm12 vpaddd %ymm12, %ymm8, %ymm8 vpaddd %ymm6, %ymm2, %ymm2 vpxor %ymm8, %ymm4, %ymm4 vpxor %ymm2, %ymm14, %ymm14 vpslld $12, %ymm4, %ymm15 vpsrld $20, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm4, %ymm0, %ymm0 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm0, %ymm12, %ymm12 vpxor %ymm10, %ymm6, %ymm6 vpshufb 32(%rsp), %ymm12, %ymm12 vpslld $12, %ymm6, %ymm15 vpsrld $20, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vpaddd %ymm12, %ymm8, %ymm8 vpaddd %ymm6, %ymm2, %ymm2 vpxor %ymm8, %ymm4, %ymm4 vpxor %ymm2, %ymm14, %ymm14 vpslld $7, %ymm4, %ymm15 vpsrld $25, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm10, %ymm6, %ymm6 vpslld $7, %ymm6, %ymm15 vpsrld $25, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vmovdqu 64(%rsp), %ymm15 vmovdqu %ymm14, 96(%rsp) vpaddd %ymm5, %ymm1, %ymm1 vpxor %ymm1, %ymm13, %ymm13 vpshufb (%rsp), %ymm13, %ymm13 vpaddd %ymm13, %ymm9, %ymm9 vpaddd %ymm7, %ymm3, %ymm3 vpxor %ymm9, %ymm5, %ymm5 vpxor %ymm3, %ymm15, %ymm14 vpslld $12, %ymm5, %ymm15 vpsrld $20, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm5, %ymm1, %ymm1 vpaddd %ymm14, %ymm11, %ymm11 vpxor %ymm1, %ymm13, %ymm13 vpxor %ymm11, %ymm7, %ymm7 vpshufb 32(%rsp), %ymm13, %ymm13 vpslld $12, %ymm7, %ymm15 vpsrld $20, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpaddd %ymm13, %ymm9, %ymm9 vpaddd %ymm7, %ymm3, %ymm3 vpxor %ymm9, %ymm5, %ymm5 vpxor %ymm3, %ymm14, %ymm14 vpslld $7, %ymm5, %ymm15 vpsrld $25, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm11, %ymm11 vpxor %ymm11, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm15 vpsrld $25, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpaddd %ymm6, %ymm1, %ymm1 vpxor %ymm1, %ymm12, %ymm12 vpshufb (%rsp), %ymm12, %ymm12 vpaddd %ymm12, %ymm11, %ymm11 vpaddd %ymm5, %ymm0, %ymm0 vpxor %ymm11, %ymm6, %ymm6 vpxor %ymm0, %ymm14, %ymm14 vpslld $12, %ymm6, %ymm15 vpsrld $20, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm6, %ymm1, %ymm1 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm1, %ymm12, %ymm12 vpxor %ymm10, %ymm5, %ymm5 vpshufb 32(%rsp), %ymm12, %ymm12 vpslld $12, %ymm5, %ymm15 vpsrld $20, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vpaddd %ymm12, %ymm11, %ymm11 vpaddd %ymm5, %ymm0, %ymm0 vpxor %ymm11, %ymm6, %ymm6 vpxor %ymm0, %ymm14, %ymm14 vpslld $7, %ymm6, %ymm15 vpsrld $25, %ymm6, %ymm6 vpxor %ymm15, %ymm6, %ymm6 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm10, %ymm10 vpxor %ymm10, %ymm5, %ymm5 vpslld $7, %ymm5, %ymm15 vpsrld $25, %ymm5, %ymm5 vpxor %ymm15, %ymm5, %ymm5 vmovdqu 96(%rsp), %ymm15 vmovdqu %ymm14, 64(%rsp) vpaddd %ymm7, %ymm2, %ymm2 vpxor %ymm2, %ymm13, %ymm13 vpshufb (%rsp), %ymm13, %ymm13 vpaddd %ymm13, %ymm8, %ymm8 vpaddd %ymm4, %ymm3, %ymm3 vpxor %ymm8, %ymm7, %ymm7 vpxor %ymm3, %ymm15, %ymm14 vpslld $12, %ymm7, %ymm15 vpsrld $20, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpshufb (%rsp), %ymm14, %ymm14 vpaddd %ymm7, %ymm2, %ymm2 vpaddd %ymm14, %ymm9, %ymm9 vpxor %ymm2, %ymm13, %ymm13 vpxor %ymm9, %ymm4, %ymm4 vpshufb 32(%rsp), %ymm13, %ymm13 vpslld $12, %ymm4, %ymm15 vpsrld $20, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 vpaddd %ymm13, %ymm8, %ymm8 vpaddd %ymm4, %ymm3, %ymm3 vpxor %ymm8, %ymm7, %ymm7 vpxor %ymm3, %ymm14, %ymm14 vpslld $7, %ymm7, %ymm15 vpsrld $25, %ymm7, %ymm7 vpxor %ymm15, %ymm7, %ymm7 vpshufb 32(%rsp), %ymm14, %ymm14 vpaddd %ymm14, %ymm9, %ymm9 vpxor %ymm9, %ymm4, %ymm4 vpslld $7, %ymm4, %ymm15 vpsrld $25, %ymm4, %ymm4 vpxor %ymm15, %ymm4, %ymm4 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$31 vmovdqu 64(%rsp), %ymm15 vpaddd 640(%rsp), %ymm0, %ymm0 vpaddd 672(%rsp), %ymm1, %ymm1 vpaddd 704(%rsp), %ymm2, %ymm2 vpaddd 736(%rsp), %ymm3, %ymm3 vpaddd 768(%rsp), %ymm4, %ymm4 vpaddd 800(%rsp), %ymm5, %ymm5 vpaddd 832(%rsp), %ymm6, %ymm6 vpaddd 864(%rsp), %ymm7, %ymm7 vpaddd 896(%rsp), %ymm8, %ymm8 vpaddd 928(%rsp), %ymm9, %ymm9 vpaddd 960(%rsp), %ymm10, %ymm10 vpaddd 992(%rsp), %ymm11, %ymm11 vpaddd 1024(%rsp), %ymm12, %ymm12 vpaddd 1056(%rsp), %ymm13, %ymm13 vpaddd 1088(%rsp), %ymm14, %ymm14 vpaddd 1120(%rsp), %ymm15, %ymm15 vmovdqu %ymm8, 128(%rsp) vmovdqu %ymm9, 160(%rsp) vmovdqu %ymm10, 192(%rsp) vmovdqu %ymm11, 224(%rsp) vmovdqu %ymm12, 256(%rsp) vmovdqu %ymm13, 288(%rsp) vmovdqu %ymm14, 320(%rsp) vmovdqu %ymm15, 352(%rsp) vpunpckldq %ymm1, %ymm0, %ymm8 vpunpckhdq %ymm1, %ymm0, %ymm0 vpunpckldq %ymm3, %ymm2, %ymm1 vpunpckhdq %ymm3, %ymm2, %ymm2 vpunpckldq %ymm5, %ymm4, %ymm3 vpunpckhdq %ymm5, %ymm4, %ymm4 vpunpckldq %ymm7, %ymm6, %ymm5 vpunpckhdq %ymm7, %ymm6, %ymm6 vpunpcklqdq %ymm1, %ymm8, %ymm7 vpunpcklqdq %ymm5, %ymm3, %ymm9 vpunpckhqdq %ymm1, %ymm8, %ymm1 vpunpckhqdq %ymm5, %ymm3, %ymm3 vpunpcklqdq %ymm2, %ymm0, %ymm5 vpunpcklqdq %ymm6, %ymm4, %ymm8 vpunpckhqdq %ymm2, %ymm0, %ymm0 vpunpckhqdq %ymm6, %ymm4, %ymm2 vperm2i128 $32, %ymm9, %ymm7, %ymm4 vperm2i128 $49, %ymm9, %ymm7, %ymm6 vperm2i128 $32, %ymm3, %ymm1, %ymm7 vperm2i128 $49, %ymm3, %ymm1, %ymm1 vperm2i128 $32, %ymm8, %ymm5, %ymm3 vperm2i128 $49, %ymm8, %ymm5, %ymm5 vperm2i128 $32, %ymm2, %ymm0, %ymm8 vperm2i128 $49, %ymm2, %ymm0, %ymm0 vmovdqu %ymm4, 384(%rsp) vmovdqu %ymm7, 416(%rsp) vmovdqu %ymm3, 448(%rsp) vmovdqu %ymm8, 480(%rsp) vmovdqu %ymm6, 512(%rsp) vmovdqu %ymm1, 544(%rsp) vmovdqu %ymm5, 576(%rsp) vmovdqu %ymm0, 608(%rsp) vmovdqu 128(%rsp), %ymm0 vmovdqu 192(%rsp), %ymm1 vmovdqu 256(%rsp), %ymm2 vmovdqu 320(%rsp), %ymm3 vpunpckldq 160(%rsp), %ymm0, %ymm4 vpunpckhdq 160(%rsp), %ymm0, %ymm0 vpunpckldq 224(%rsp), %ymm1, %ymm5 vpunpckhdq 224(%rsp), %ymm1, %ymm1 vpunpckldq 288(%rsp), %ymm2, %ymm6 vpunpckhdq 288(%rsp), %ymm2, %ymm2 vpunpckldq 352(%rsp), %ymm3, %ymm7 vpunpckhdq 352(%rsp), %ymm3, %ymm3 vpunpcklqdq %ymm5, %ymm4, %ymm8 vpunpcklqdq %ymm7, %ymm6, %ymm9 vpunpckhqdq %ymm5, %ymm4, %ymm4 vpunpckhqdq %ymm7, %ymm6, %ymm5 vpunpcklqdq %ymm1, %ymm0, %ymm6 vpunpcklqdq %ymm3, %ymm2, %ymm7 vpunpckhqdq %ymm1, %ymm0, %ymm0 vpunpckhqdq %ymm3, %ymm2, %ymm1 vperm2i128 $32, %ymm9, %ymm8, %ymm2 vperm2i128 $49, %ymm9, %ymm8, %ymm3 vperm2i128 $32, %ymm5, %ymm4, %ymm8 vperm2i128 $49, %ymm5, %ymm4, %ymm4 vperm2i128 $32, %ymm7, %ymm6, %ymm5 vperm2i128 $49, %ymm7, %ymm6, %ymm6 vperm2i128 $32, %ymm1, %ymm0, %ymm7 vperm2i128 $49, %ymm1, %ymm0, %ymm0 vmovdqu 384(%rsp), %ymm1 vmovdqu %ymm2, %ymm12 vmovdqu 416(%rsp), %ymm11 vmovdqu %ymm8, %ymm10 vmovdqu 448(%rsp), %ymm9 vmovdqu %ymm5, %ymm8 vmovdqu 480(%rsp), %ymm5 vmovdqu %ymm7, %ymm2 cmpq $256, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$30 vpxor (%rsi), %ymm1, %ymm1 vmovdqu %ymm1, (%rdi) vpxor 32(%rsi), %ymm12, %ymm1 vmovdqu %ymm1, 32(%rdi) vpxor 64(%rsi), %ymm11, %ymm1 vmovdqu %ymm1, 64(%rdi) vpxor 96(%rsi), %ymm10, %ymm1 vmovdqu %ymm1, 96(%rdi) vpxor 128(%rsi), %ymm9, %ymm1 vmovdqu %ymm1, 128(%rdi) vpxor 160(%rsi), %ymm8, %ymm1 vmovdqu %ymm1, 160(%rdi) vpxor 192(%rsi), %ymm5, %ymm1 vmovdqu %ymm1, 192(%rdi) vpxor 224(%rsi), %ymm2, %ymm1 vmovdqu %ymm1, 224(%rdi) addq $256, %rdi addq $256, %rsi addq $-256, %rdx vmovdqu 512(%rsp), %ymm1 vmovdqu %ymm3, %ymm12 vmovdqu 544(%rsp), %ymm11 vmovdqu %ymm4, %ymm10 vmovdqu 576(%rsp), %ymm9 vmovdqu %ymm6, %ymm8 vmovdqu 608(%rsp), %ymm5 vmovdqu %ymm0, %ymm2 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$30: cmpq $128, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$29 vpxor (%rsi), %ymm1, %ymm0 vmovdqu %ymm0, (%rdi) vpxor 32(%rsi), %ymm12, %ymm0 vmovdqu %ymm0, 32(%rdi) vpxor 64(%rsi), %ymm11, %ymm0 vmovdqu %ymm0, 64(%rdi) vpxor 96(%rsi), %ymm10, %ymm0 vmovdqu %ymm0, 96(%rdi) addq $128, %rdi addq $128, %rsi addq $-128, %rdx vmovdqu %ymm9, %ymm1 vmovdqu %ymm8, %ymm12 vmovdqu %ymm5, %ymm11 vmovdqu %ymm2, %ymm10 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$29: cmpq $64, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$28 vpxor (%rsi), %ymm1, %ymm0 vmovdqu %ymm0, (%rdi) vpxor 32(%rsi), %ymm12, %ymm0 vmovdqu %ymm0, 32(%rdi) addq $64, %rdi addq $64, %rsi addq $-64, %rdx vmovdqu %ymm11, %ymm1 vmovdqu %ymm10, %ymm12 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$28: cmpq $32, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$27 vpxor (%rsi), %ymm1, %ymm0 vmovdqu %ymm0, (%rdi) addq $32, %rdi addq $32, %rsi addq $-32, %rdx vmovdqu %ymm12, %ymm1 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$27: vmovdqu %xmm1, %xmm0 cmpq $16, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$26 vpxor (%rsi), %xmm0, %xmm0 vmovdqu %xmm0, (%rdi) addq $16, %rdi addq $16, %rsi addq $-16, %rdx vextracti128 $1, %ymm1, %xmm0 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$26: vpextrq $0, %xmm0, %rax cmpq $8, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$23 xorq (%rsi), %rax movq %rax, (%rdi) addq $8, %rdi addq $8, %rsi addq $-8, %rdx vpextrq $1, %xmm0, %rax Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$25: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$23 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$24: movb %al, %cl xorb (%rsi), %cl movb %cl, (%rdi) shrq $8, %rax incq %rdi incq %rsi addq $-1, %rdx Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$23: cmpq $0, %rdx jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$24 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$22: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$2 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$1: vmovdqu glob_data + 160(%rip), %ymm0 vmovdqu glob_data + 128(%rip), %ymm1 vmovdqu glob_data + 480(%rip), %ymm2 vbroadcasti128 (%r8), %ymm3 vbroadcasti128 16(%r8), %ymm4 vpxor %xmm5, %xmm5, %xmm5 vpinsrd $1, (%rcx), %xmm5, %xmm5 vpinsrq $1, 4(%rcx), %xmm5, %xmm5 vpxor %ymm6, %ymm6, %ymm6 vinserti128 $0, %xmm5, %ymm6, %ymm6 vinserti128 $1, %xmm5, %ymm6, %ymm5 vpaddd glob_data + 96(%rip), %ymm5, %ymm5 jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$19 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$20: vmovdqu %ymm2, %ymm6 vmovdqu %ymm3, %ymm7 vmovdqu %ymm4, %ymm8 vmovdqu %ymm5, %ymm9 vmovdqu %ymm2, %ymm10 vmovdqu %ymm3, %ymm11 vmovdqu %ymm4, %ymm12 vmovdqu %ymm5, %ymm13 vpaddd glob_data + 64(%rip), %ymm13, %ymm13 movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$21: vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm0, %ymm9, %ymm9 vpshufb %ymm0, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $12, %ymm7, %ymm14 vpsrld $20, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $12, %ymm11, %ymm14 vpsrld $20, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm1, %ymm9, %ymm9 vpshufb %ymm1, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm14 vpsrld $25, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $7, %ymm11, %ymm14 vpsrld $25, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpshufd $57, %ymm7, %ymm7 vpshufd $78, %ymm8, %ymm8 vpshufd $-109, %ymm9, %ymm9 vpshufd $57, %ymm11, %ymm11 vpshufd $78, %ymm12, %ymm12 vpshufd $-109, %ymm13, %ymm13 vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm0, %ymm9, %ymm9 vpshufb %ymm0, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $12, %ymm7, %ymm14 vpsrld $20, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $12, %ymm11, %ymm14 vpsrld $20, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm1, %ymm9, %ymm9 vpshufb %ymm1, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm14 vpsrld $25, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $7, %ymm11, %ymm14 vpsrld $25, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpshufd $-109, %ymm7, %ymm7 vpshufd $78, %ymm8, %ymm8 vpshufd $57, %ymm9, %ymm9 vpshufd $-109, %ymm11, %ymm11 vpshufd $78, %ymm12, %ymm12 vpshufd $57, %ymm13, %ymm13 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$21 vpaddd %ymm2, %ymm6, %ymm6 vpaddd %ymm3, %ymm7, %ymm7 vpaddd %ymm4, %ymm8, %ymm8 vpaddd %ymm5, %ymm9, %ymm9 vpaddd %ymm2, %ymm10, %ymm10 vpaddd %ymm3, %ymm11, %ymm11 vpaddd %ymm4, %ymm12, %ymm12 vpaddd %ymm5, %ymm13, %ymm13 vpaddd glob_data + 64(%rip), %ymm13, %ymm13 vperm2i128 $32, %ymm7, %ymm6, %ymm14 vperm2i128 $32, %ymm9, %ymm8, %ymm15 vperm2i128 $49, %ymm7, %ymm6, %ymm6 vperm2i128 $49, %ymm9, %ymm8, %ymm7 vperm2i128 $32, %ymm11, %ymm10, %ymm8 vperm2i128 $32, %ymm13, %ymm12, %ymm9 vperm2i128 $49, %ymm11, %ymm10, %ymm10 vperm2i128 $49, %ymm13, %ymm12, %ymm11 vpxor (%rsi), %ymm14, %ymm12 vmovdqu %ymm12, (%rdi) vpxor 32(%rsi), %ymm15, %ymm12 vmovdqu %ymm12, 32(%rdi) vpxor 64(%rsi), %ymm6, %ymm6 vmovdqu %ymm6, 64(%rdi) vpxor 96(%rsi), %ymm7, %ymm6 vmovdqu %ymm6, 96(%rdi) vpxor 128(%rsi), %ymm8, %ymm6 vmovdqu %ymm6, 128(%rdi) vpxor 160(%rsi), %ymm9, %ymm6 vmovdqu %ymm6, 160(%rdi) vpxor 192(%rsi), %ymm10, %ymm6 vmovdqu %ymm6, 192(%rdi) vpxor 224(%rsi), %ymm11, %ymm6 vmovdqu %ymm6, 224(%rdi) addq $256, %rdi addq $256, %rsi addq $-256, %rdx vpaddd glob_data + 32(%rip), %ymm5, %ymm5 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$19: cmpq $256, %rdx jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$20 cmpq $128, %rdx jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$3 vmovdqu %ymm2, %ymm6 vmovdqu %ymm3, %ymm7 vmovdqu %ymm4, %ymm8 vmovdqu %ymm5, %ymm9 movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$18: vpaddd %ymm7, %ymm6, %ymm6 vpxor %ymm6, %ymm9, %ymm9 vpshufb %ymm0, %ymm9, %ymm9 vpaddd %ymm9, %ymm8, %ymm8 vpxor %ymm8, %ymm7, %ymm7 vpslld $12, %ymm7, %ymm10 vpsrld $20, %ymm7, %ymm7 vpxor %ymm10, %ymm7, %ymm7 vpaddd %ymm7, %ymm6, %ymm6 vpxor %ymm6, %ymm9, %ymm9 vpshufb %ymm1, %ymm9, %ymm9 vpaddd %ymm9, %ymm8, %ymm8 vpxor %ymm8, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm10 vpsrld $25, %ymm7, %ymm7 vpxor %ymm10, %ymm7, %ymm7 vpshufd $57, %ymm7, %ymm7 vpshufd $78, %ymm8, %ymm8 vpshufd $-109, %ymm9, %ymm9 vpaddd %ymm7, %ymm6, %ymm6 vpxor %ymm6, %ymm9, %ymm9 vpshufb %ymm0, %ymm9, %ymm9 vpaddd %ymm9, %ymm8, %ymm8 vpxor %ymm8, %ymm7, %ymm7 vpslld $12, %ymm7, %ymm10 vpsrld $20, %ymm7, %ymm7 vpxor %ymm10, %ymm7, %ymm7 vpaddd %ymm7, %ymm6, %ymm6 vpxor %ymm6, %ymm9, %ymm9 vpshufb %ymm1, %ymm9, %ymm9 vpaddd %ymm9, %ymm8, %ymm8 vpxor %ymm8, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm10 vpsrld $25, %ymm7, %ymm7 vpxor %ymm10, %ymm7, %ymm7 vpshufd $-109, %ymm7, %ymm7 vpshufd $78, %ymm8, %ymm8 vpshufd $57, %ymm9, %ymm9 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$18 vpaddd %ymm2, %ymm6, %ymm0 vpaddd %ymm3, %ymm7, %ymm1 vpaddd %ymm4, %ymm8, %ymm2 vpaddd %ymm5, %ymm9, %ymm3 vperm2i128 $32, %ymm1, %ymm0, %ymm5 vperm2i128 $32, %ymm3, %ymm2, %ymm4 vperm2i128 $49, %ymm1, %ymm0, %ymm0 vperm2i128 $49, %ymm3, %ymm2, %ymm1 cmpq $64, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$17 vpxor (%rsi), %ymm5, %ymm2 vmovdqu %ymm2, (%rdi) vpxor 32(%rsi), %ymm4, %ymm2 vmovdqu %ymm2, 32(%rdi) addq $64, %rdi addq $64, %rsi addq $-64, %rdx vmovdqu %ymm0, %ymm5 vmovdqu %ymm1, %ymm4 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$17: cmpq $32, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$16 vpxor (%rsi), %ymm5, %ymm0 vmovdqu %ymm0, (%rdi) addq $32, %rdi addq $32, %rsi addq $-32, %rdx vmovdqu %ymm4, %ymm5 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$16: vmovdqu %xmm5, %xmm0 cmpq $16, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$15 vpxor (%rsi), %xmm0, %xmm0 vmovdqu %xmm0, (%rdi) addq $16, %rdi addq $16, %rsi addq $-16, %rdx vextracti128 $1, %ymm5, %xmm0 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$15: vpextrq $0, %xmm0, %rax cmpq $8, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$12 xorq (%rsi), %rax movq %rax, (%rdi) addq $8, %rdi addq $8, %rsi addq $-8, %rdx vpextrq $1, %xmm0, %rax Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$14: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$12 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$13: movb %al, %cl xorb (%rsi), %cl movb %cl, (%rdi) shrq $8, %rax incq %rdi incq %rsi addq $-1, %rdx Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$12: cmpq $0, %rdx jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$13 jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$2 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$3: vmovdqu %ymm2, %ymm6 vmovdqu %ymm3, %ymm7 vmovdqu %ymm4, %ymm8 vmovdqu %ymm5, %ymm9 vmovdqu %ymm2, %ymm10 vmovdqu %ymm3, %ymm11 vmovdqu %ymm4, %ymm12 vmovdqu %ymm5, %ymm13 vpaddd glob_data + 64(%rip), %ymm13, %ymm13 movl $10, %eax Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$11: vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm0, %ymm9, %ymm9 vpshufb %ymm0, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $12, %ymm7, %ymm14 vpsrld $20, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $12, %ymm11, %ymm14 vpsrld $20, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm1, %ymm9, %ymm9 vpshufb %ymm1, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm14 vpsrld $25, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $7, %ymm11, %ymm14 vpsrld $25, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpshufd $57, %ymm7, %ymm7 vpshufd $78, %ymm8, %ymm8 vpshufd $-109, %ymm9, %ymm9 vpshufd $57, %ymm11, %ymm11 vpshufd $78, %ymm12, %ymm12 vpshufd $-109, %ymm13, %ymm13 vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm0, %ymm9, %ymm9 vpshufb %ymm0, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $12, %ymm7, %ymm14 vpsrld $20, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $12, %ymm11, %ymm14 vpsrld $20, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpaddd %ymm7, %ymm6, %ymm6 vpaddd %ymm11, %ymm10, %ymm10 vpxor %ymm6, %ymm9, %ymm9 vpxor %ymm10, %ymm13, %ymm13 vpshufb %ymm1, %ymm9, %ymm9 vpshufb %ymm1, %ymm13, %ymm13 vpaddd %ymm9, %ymm8, %ymm8 vpaddd %ymm13, %ymm12, %ymm12 vpxor %ymm8, %ymm7, %ymm7 vpslld $7, %ymm7, %ymm14 vpsrld $25, %ymm7, %ymm7 vpxor %ymm12, %ymm11, %ymm11 vpxor %ymm14, %ymm7, %ymm7 vpslld $7, %ymm11, %ymm14 vpsrld $25, %ymm11, %ymm11 vpxor %ymm14, %ymm11, %ymm11 vpshufd $-109, %ymm7, %ymm7 vpshufd $78, %ymm8, %ymm8 vpshufd $57, %ymm9, %ymm9 vpshufd $-109, %ymm11, %ymm11 vpshufd $78, %ymm12, %ymm12 vpshufd $57, %ymm13, %ymm13 decl %eax cmpl $0, %eax jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$11 vpaddd %ymm2, %ymm6, %ymm0 vpaddd %ymm3, %ymm7, %ymm1 vpaddd %ymm4, %ymm8, %ymm6 vpaddd %ymm5, %ymm9, %ymm7 vpaddd %ymm2, %ymm10, %ymm2 vpaddd %ymm3, %ymm11, %ymm3 vpaddd %ymm4, %ymm12, %ymm4 vpaddd %ymm5, %ymm13, %ymm5 vpaddd glob_data + 64(%rip), %ymm5, %ymm5 vperm2i128 $32, %ymm1, %ymm0, %ymm8 vperm2i128 $32, %ymm7, %ymm6, %ymm9 vperm2i128 $49, %ymm1, %ymm0, %ymm0 vperm2i128 $49, %ymm7, %ymm6, %ymm1 vperm2i128 $32, %ymm3, %ymm2, %ymm7 vperm2i128 $32, %ymm5, %ymm4, %ymm6 vperm2i128 $49, %ymm3, %ymm2, %ymm2 vperm2i128 $49, %ymm5, %ymm4, %ymm3 vpxor (%rsi), %ymm8, %ymm4 vmovdqu %ymm4, (%rdi) vpxor 32(%rsi), %ymm9, %ymm4 vmovdqu %ymm4, 32(%rdi) vpxor 64(%rsi), %ymm0, %ymm0 vmovdqu %ymm0, 64(%rdi) vpxor 96(%rsi), %ymm1, %ymm0 vmovdqu %ymm0, 96(%rdi) addq $128, %rdi addq $128, %rsi addq $-128, %rdx cmpq $64, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$10 vpxor (%rsi), %ymm7, %ymm0 vmovdqu %ymm0, (%rdi) vpxor 32(%rsi), %ymm6, %ymm0 vmovdqu %ymm0, 32(%rdi) addq $64, %rdi addq $64, %rsi addq $-64, %rdx vmovdqu %ymm2, %ymm7 vmovdqu %ymm3, %ymm6 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$10: cmpq $32, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$9 vpxor (%rsi), %ymm7, %ymm0 vmovdqu %ymm0, (%rdi) addq $32, %rdi addq $32, %rsi addq $-32, %rdx vmovdqu %ymm6, %ymm7 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$9: vmovdqu %xmm7, %xmm0 cmpq $16, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$8 vpxor (%rsi), %xmm0, %xmm0 vmovdqu %xmm0, (%rdi) addq $16, %rdi addq $16, %rsi addq $-16, %rdx vextracti128 $1, %ymm7, %xmm0 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$8: vpextrq $0, %xmm0, %rax cmpq $8, %rdx jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$5 xorq (%rsi), %rax movq %rax, (%rdi) addq $8, %rdi addq $8, %rsi addq $-8, %rdx vpextrq $1, %xmm0, %rax Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$7: jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$5 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$6: movb %al, %cl xorb (%rsi), %cl movb %cl, (%rdi) shrq $8, %rax incq %rdi incq %rsi addq $-1, %rdx Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$5: cmpq $0, %rdx jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$6 Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$4: Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$2: xorq %rax, %rax movq %r10, %rsp ret .data .p2align 5 _glob_data: glob_data: .byte 8 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 4 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 4 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 1 .byte 2 .byte 7 .byte 4 .byte 5 .byte 6 .byte 11 .byte 8 .byte 9 .byte 10 .byte 15 .byte 12 .byte 13 .byte 14 .byte 3 .byte 0 .byte 1 .byte 2 .byte 7 .byte 4 .byte 5 .byte 6 .byte 11 .byte 8 .byte 9 .byte 10 .byte 15 .byte 12 .byte 13 .byte 14 .byte 2 .byte 3 .byte 0 .byte 1 .byte 6 .byte 7 .byte 4 .byte 5 .byte 10 .byte 11 .byte 8 .byte 9 .byte 14 .byte 15 .byte 12 .byte 13 .byte 2 .byte 3 .byte 0 .byte 1 .byte 6 .byte 7 .byte 4 .byte 5 .byte 10 .byte 11 .byte 8 .byte 9 .byte 14 .byte 15 .byte 12 .byte 13 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 0 .byte 0 .byte 4 .byte 0 .byte 0 .byte 0 .byte 5 .byte 0 .byte 0 .byte 0 .byte 6 .byte 0 .byte 0 .byte 0 .byte 7 .byte 0 .byte 0 .byte 0 .byte 101 .byte 120 .byte 112 .byte 97 .byte 101 .byte 120 .byte 112 .byte 97 .byte 101 .byte 120 .byte 112 .byte 97 .byte 101 .byte 120 .byte 112 .byte 97 .byte 101 .byte 120 .byte 112 .byte 97 .byte 101 .byte 120 .byte 112 .byte 97 .byte 101 .byte 120 .byte 112 .byte 97 .byte 101 .byte 120 .byte 112 .byte 97 .byte 110 .byte 100 .byte 32 .byte 51 .byte 110 .byte 100 .byte 32 .byte 51 .byte 110 .byte 100 .byte 32 .byte 51 .byte 110 .byte 100 .byte 32 .byte 51 .byte 110 .byte 100 .byte 32 .byte 51 .byte 110 .byte 100 .byte 32 .byte 51 .byte 110 .byte 100 .byte 32 .byte 51 .byte 110 .byte 100 .byte 32 .byte 51 .byte 50 .byte 45 .byte 98 .byte 121 .byte 50 .byte 45 .byte 98 .byte 121 .byte 50 .byte 45 .byte 98 .byte 121 .byte 50 .byte 45 .byte 98 .byte 121 .byte 50 .byte 45 .byte 98 .byte 121 .byte 50 .byte 45 .byte 98 .byte 121 .byte 50 .byte 45 .byte 98 .byte 121 .byte 50 .byte 45 .byte 98 .byte 121 .byte 116 .byte 101 .byte 32 .byte 107 .byte 116 .byte 101 .byte 32 .byte 107 .byte 116 .byte 101 .byte 32 .byte 107 .byte 116 .byte 101 .byte 32 .byte 107 .byte 116 .byte 101 .byte 32 .byte 107 .byte 116 .byte 101 .byte 32 .byte 107 .byte 116 .byte 101 .byte 32 .byte 107 .byte 116 .byte 101 .byte 32 .byte 107 .byte 4 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 4 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 101 .byte 120 .byte 112 .byte 97 .byte 110 .byte 100 .byte 32 .byte 51 .byte 50 .byte 45 .byte 98 .byte 121 .byte 116 .byte 101 .byte 32 .byte 107 .byte 101 .byte 120 .byte 112 .byte 97 .byte 110 .byte 100 .byte 32 .byte 51 .byte 50 .byte 45 .byte 98 .byte 121 .byte 116 .byte 101 .byte 32 .byte 107
verdict-x509/verdict
34,209
deps/libcrux/sys/libjade/jazz/sha3_224_avx2.s
.att_syntax .text .p2align 5 .globl _jade_hash_sha3_224_amd64_avx2 .globl jade_hash_sha3_224_amd64_avx2 _jade_hash_sha3_224_amd64_avx2: jade_hash_sha3_224_amd64_avx2: movq %rsp, %rax leaq -40(%rsp), %rsp andq $-32, %rsp movq %rax, 32(%rsp) movq %rbx, (%rsp) movq %rbp, 8(%rsp) movq %r12, 16(%rsp) movq %r13, 24(%rsp) movq $28, %r9 movb $6, %al movq $144, %rcx leaq -224(%rsp), %rsp leaq Ljade_hash_sha3_224_amd64_avx2$1(%rip), %r10 jmp L_keccak1600_avx2$1 Ljade_hash_sha3_224_amd64_avx2$1: leaq 224(%rsp), %rsp xorq %rax, %rax movq (%rsp), %rbx movq 8(%rsp), %rbp movq 16(%rsp), %r12 movq 24(%rsp), %r13 movq 32(%rsp), %rsp ret L_keccak1600_avx2$1: vpxor %ymm6, %ymm6, %ymm6 vpxor %ymm3, %ymm3, %ymm3 vpxor %ymm4, %ymm4, %ymm4 vpxor %ymm0, %ymm0, %ymm0 vpxor %ymm5, %ymm5, %ymm5 vpxor %ymm1, %ymm1, %ymm1 vpxor %ymm2, %ymm2, %ymm2 leaq glob_data + 1152(%rip), %r8 vpxor %ymm7, %ymm7, %ymm7 vmovdqu %ymm7, (%rsp) vmovdqu %ymm7, 32(%rsp) vmovdqu %ymm7, 64(%rsp) vmovdqu %ymm7, 96(%rsp) vmovdqu %ymm7, 128(%rsp) vmovdqu %ymm7, 160(%rsp) vmovdqu %ymm7, 192(%rsp) jmp L_keccak1600_avx2$16 L_keccak1600_avx2$17: movq %rcx, %r11 shrq $3, %r11 movq $0, %rbx jmp L_keccak1600_avx2$19 L_keccak1600_avx2$20: movq (%rsi,%rbx,8), %rbp movq (%r8,%rbx,8), %r12 movq %rbp, (%rsp,%r12,8) incq %rbx L_keccak1600_avx2$19: cmpq %r11, %rbx jb L_keccak1600_avx2$20 movq (%rsp), %r11 movq %r11, 8(%rsp) movq %r11, 16(%rsp) movq %r11, 24(%rsp) vpxor (%rsp), %ymm6, %ymm6 vpxor 32(%rsp), %ymm3, %ymm3 vpxor 64(%rsp), %ymm4, %ymm4 vpxor 96(%rsp), %ymm0, %ymm0 vpxor 128(%rsp), %ymm5, %ymm5 vpxor 160(%rsp), %ymm1, %ymm1 vpxor 192(%rsp), %ymm2, %ymm2 addq %rcx, %rsi subq %rcx, %rdx leaq glob_data + 384(%rip), %r11 movq $0, %rbx leaq glob_data + 192(%rip), %rbp leaq glob_data + 0(%rip), %r12 movq $24, %r13 L_keccak1600_avx2$18: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rbp), %ymm4, %ymm7 vpsrlvq (%r12), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%rbp), %ymm0, %ymm7 vpsrlvq 64(%r12), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%rbp), %ymm5, %ymm7 vpsrlvq 96(%r12), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%rbp), %ymm1, %ymm5 vpsrlvq 128(%r12), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%rbp), %ymm2, %ymm0 vpsrlvq 160(%r12), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%rbp), %ymm0, %ymm1 vpsrlvq 32(%r12), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%r11,%rbx), %ymm6, %ymm6 addq $32, %rbx decq %r13 jne L_keccak1600_avx2$18 L_keccak1600_avx2$16: cmpq %rcx, %rdx jnb L_keccak1600_avx2$17 vpxor %ymm7, %ymm7, %ymm7 vmovdqu %ymm7, (%rsp) vmovdqu %ymm7, 32(%rsp) vmovdqu %ymm7, 64(%rsp) vmovdqu %ymm7, 96(%rsp) vmovdqu %ymm7, 128(%rsp) vmovdqu %ymm7, 160(%rsp) vmovdqu %ymm7, 192(%rsp) movq %rdx, %r11 shrq $3, %r11 movq $0, %rbx jmp L_keccak1600_avx2$14 L_keccak1600_avx2$15: movq (%rsi,%rbx,8), %rbp movq (%r8,%rbx,8), %r12 movq %rbp, (%rsp,%r12,8) incq %rbx L_keccak1600_avx2$14: cmpq %r11, %rbx jb L_keccak1600_avx2$15 movq (%r8,%rbx,8), %r11 shlq $3, %r11 shlq $3, %rbx jmp L_keccak1600_avx2$12 L_keccak1600_avx2$13: movb (%rsi,%rbx), %bpl movb %bpl, (%rsp,%r11) incq %rbx incq %r11 L_keccak1600_avx2$12: cmpq %rdx, %rbx jb L_keccak1600_avx2$13 movb %al, (%rsp,%r11) movq %rcx, %rax addq $-1, %rax shrq $3, %rax movq (%r8,%rax,8), %rax shlq $3, %rax movq %rcx, %rdx addq $-1, %rdx andq $7, %rdx addq %rdx, %rax xorb $-128, (%rsp,%rax) movq (%rsp), %rax movq %rax, 8(%rsp) movq %rax, 16(%rsp) movq %rax, 24(%rsp) vpxor (%rsp), %ymm6, %ymm6 vpxor 32(%rsp), %ymm3, %ymm3 vpxor 64(%rsp), %ymm4, %ymm4 vpxor 96(%rsp), %ymm0, %ymm0 vpxor 128(%rsp), %ymm5, %ymm5 vpxor 160(%rsp), %ymm1, %ymm1 vpxor 192(%rsp), %ymm2, %ymm2 leaq glob_data + 1152(%rip), %rax jmp L_keccak1600_avx2$7 L_keccak1600_avx2$8: leaq glob_data + 384(%rip), %rdx movq $0, %rsi leaq glob_data + 192(%rip), %r8 leaq glob_data + 0(%rip), %r11 movq $24, %rbx L_keccak1600_avx2$11: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%r8), %ymm4, %ymm7 vpsrlvq (%r11), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%r8), %ymm0, %ymm7 vpsrlvq 64(%r11), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%r8), %ymm5, %ymm7 vpsrlvq 96(%r11), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%r8), %ymm1, %ymm5 vpsrlvq 128(%r11), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%r8), %ymm2, %ymm0 vpsrlvq 160(%r11), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%r8), %ymm0, %ymm1 vpsrlvq 32(%r11), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%rdx,%rsi), %ymm6, %ymm6 addq $32, %rsi decq %rbx jne L_keccak1600_avx2$11 vmovdqu %ymm6, (%rsp) vmovdqu %ymm3, 32(%rsp) vmovdqu %ymm4, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm5, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) movq %rcx, %rdx shrq $3, %rdx movq $0, %rsi jmp L_keccak1600_avx2$9 L_keccak1600_avx2$10: movq (%rax,%rsi,8), %r8 movq (%rsp,%r8,8), %r8 movq %r8, (%rdi,%rsi,8) incq %rsi L_keccak1600_avx2$9: cmpq %rdx, %rsi jb L_keccak1600_avx2$10 addq %rcx, %rdi subq %rcx, %r9 L_keccak1600_avx2$7: cmpq %rcx, %r9 jnbe L_keccak1600_avx2$8 leaq glob_data + 384(%rip), %rcx movq $0, %rdx leaq glob_data + 192(%rip), %rsi leaq glob_data + 0(%rip), %r8 movq $24, %r11 L_keccak1600_avx2$6: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm4, %ymm7 vpsrlvq (%r8), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%rsi), %ymm0, %ymm7 vpsrlvq 64(%r8), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%rsi), %ymm5, %ymm7 vpsrlvq 96(%r8), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%rsi), %ymm1, %ymm5 vpsrlvq 128(%r8), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%rsi), %ymm2, %ymm0 vpsrlvq 160(%r8), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%rsi), %ymm0, %ymm1 vpsrlvq 32(%r8), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%rcx,%rdx), %ymm6, %ymm6 addq $32, %rdx decq %r11 jne L_keccak1600_avx2$6 vmovdqu %ymm6, (%rsp) vmovdqu %ymm3, 32(%rsp) vmovdqu %ymm4, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm5, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) movq %r9, %rcx shrq $3, %rcx movq $0, %rdx jmp L_keccak1600_avx2$4 L_keccak1600_avx2$5: movq (%rax,%rdx,8), %rsi movq (%rsp,%rsi,8), %rsi movq %rsi, (%rdi,%rdx,8) incq %rdx L_keccak1600_avx2$4: cmpq %rcx, %rdx jb L_keccak1600_avx2$5 movq (%rax,%rdx,8), %rax shlq $3, %rdx shlq $3, %rax jmp L_keccak1600_avx2$2 L_keccak1600_avx2$3: movb (%rsp,%rax), %cl movb %cl, (%rdi,%rdx) incq %rdx incq %rax L_keccak1600_avx2$2: cmpq %r9, %rdx jb L_keccak1600_avx2$3 jmp *%r10 .data .p2align 5 _glob_data: glob_data: .byte 61 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 46 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 28 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 23 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 63 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 36 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 37 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 19 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 58 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 54 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 56 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 62 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 49 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 39 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 44 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 43 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 50 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 18 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 36 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 41 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 62 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 28 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 27 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 45 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 6 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 56 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 39 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 61 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 55 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 15 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 44 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 43 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 14 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 4 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 5 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 6 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 7 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 24 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 13 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 18 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 23 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 16 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 22 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 15 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 11 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 12 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 26 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 19 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 17 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 14 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 27 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0
verdict-x509/verdict
31,350
deps/libcrux/sys/libjade/jazz/sha3_224_ref.s
.att_syntax .text .p2align 5 .globl _jade_hash_sha3_224_amd64_ref .globl jade_hash_sha3_224_amd64_ref _jade_hash_sha3_224_amd64_ref: jade_hash_sha3_224_amd64_ref: movq %rsp, %rax leaq -48(%rsp), %rsp andq $-8, %rsp movq %rax, 40(%rsp) movq %rbx, (%rsp) movq %rbp, 8(%rsp) movq %r12, 16(%rsp) movq %r13, 24(%rsp) movq %r14, 32(%rsp) movq $28, %rcx movb $6, %r8b movq $144, %rax leaq -448(%rsp), %rsp call L_keccak1600_ref$1 Ljade_hash_sha3_224_amd64_ref$1: leaq 448(%rsp), %rsp xorq %rax, %rax movq (%rsp), %rbx movq 8(%rsp), %rbp movq 16(%rsp), %r12 movq 24(%rsp), %r13 movq 32(%rsp), %r14 movq 40(%rsp), %rsp ret L_keccak1600_ref$1: movq %rdi, 8(%rsp) movq %rcx, 16(%rsp) movb %r8b, 448(%rsp) xorq %rcx, %rcx movq %rcx, 48(%rsp) movq %rcx, 56(%rsp) movq %rcx, 64(%rsp) movq %rcx, 72(%rsp) movq %rcx, 80(%rsp) movq %rcx, 88(%rsp) movq %rcx, 96(%rsp) movq %rcx, 104(%rsp) movq %rcx, 112(%rsp) movq %rcx, 120(%rsp) movq %rcx, 128(%rsp) movq %rcx, 136(%rsp) movq %rcx, 144(%rsp) movq %rcx, 152(%rsp) movq %rcx, 160(%rsp) movq %rcx, 168(%rsp) movq %rcx, 176(%rsp) movq %rcx, 184(%rsp) movq %rcx, 192(%rsp) movq %rcx, 200(%rsp) movq %rcx, 208(%rsp) movq %rcx, 216(%rsp) movq %rcx, 224(%rsp) movq %rcx, 232(%rsp) movq %rcx, 240(%rsp) jmp L_keccak1600_ref$16 L_keccak1600_ref$17: movq %rax, %rcx shrq $3, %rcx movq $0, %rdi jmp L_keccak1600_ref$19 L_keccak1600_ref$20: movq (%rsi,%rdi,8), %r8 xorq %r8, 48(%rsp,%rdi,8) incq %rdi L_keccak1600_ref$19: cmpq %rcx, %rdi jb L_keccak1600_ref$20 addq %rax, %rsi subq %rax, %rdx movq %rsi, 24(%rsp) movq %rdx, 32(%rsp) movq %rax, 40(%rsp) leaq glob_data + 0(%rip), %rax movq $0, %rcx L_keccak1600_ref$18: movq (%rax,%rcx,8), %r10 movq 48(%rsp), %r9 movq 56(%rsp), %r8 movq 64(%rsp), %r11 movq 72(%rsp), %rbx movq 80(%rsp), %rbp xorq 88(%rsp), %r9 xorq 96(%rsp), %r8 xorq 104(%rsp), %r11 xorq 112(%rsp), %rbx xorq 120(%rsp), %rbp xorq 128(%rsp), %r9 xorq 136(%rsp), %r8 xorq 144(%rsp), %r11 xorq 152(%rsp), %rbx xorq 160(%rsp), %rbp xorq 168(%rsp), %r9 xorq 176(%rsp), %r8 xorq 184(%rsp), %r11 xorq 192(%rsp), %rbx xorq 200(%rsp), %rbp xorq 208(%rsp), %r9 xorq 216(%rsp), %r8 xorq 224(%rsp), %r11 xorq 232(%rsp), %rbx xorq 240(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 48(%rsp), %r11 xorq %rdx, %r11 movq 96(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 144(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 192(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 240(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 248(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 256(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 264(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 272(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 280(%rsp) movq 72(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 120(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 128(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 176(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 224(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 288(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 296(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 304(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 312(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 320(%rsp) movq 56(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 104(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 152(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 200(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 208(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 328(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 336(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 344(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 352(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 360(%rsp) movq 80(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 88(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 136(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 184(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 232(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 368(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 376(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 384(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 392(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 400(%rsp) movq 64(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 112(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 160(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 168(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 216(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 408(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 416(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 424(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 432(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 440(%rsp) movq 8(%rax,%rcx,8), %r10 movq 248(%rsp), %r9 movq 256(%rsp), %r8 movq 264(%rsp), %r11 movq 272(%rsp), %rbx movq 280(%rsp), %rbp xorq 288(%rsp), %r9 xorq 296(%rsp), %r8 xorq 304(%rsp), %r11 xorq 312(%rsp), %rbx xorq 320(%rsp), %rbp xorq 328(%rsp), %r9 xorq 336(%rsp), %r8 xorq 344(%rsp), %r11 xorq 352(%rsp), %rbx xorq 360(%rsp), %rbp xorq 368(%rsp), %r9 xorq 376(%rsp), %r8 xorq 384(%rsp), %r11 xorq 392(%rsp), %rbx xorq 400(%rsp), %rbp xorq 408(%rsp), %r9 xorq 416(%rsp), %r8 xorq 424(%rsp), %r11 xorq 432(%rsp), %rbx xorq 440(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 248(%rsp), %r11 xorq %rdx, %r11 movq 296(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 344(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 392(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 440(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 48(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 56(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 64(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 72(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 80(%rsp) movq 272(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 320(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 328(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 376(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 424(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 88(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 96(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 104(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 112(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 120(%rsp) movq 256(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 304(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 352(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 400(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 408(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 128(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 136(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 144(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 152(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 160(%rsp) movq 280(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 288(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 336(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 384(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 432(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 168(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 176(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 184(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 192(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 200(%rsp) movq 264(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 312(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 360(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 368(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 416(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 208(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 216(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 224(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 232(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 240(%rsp) addq $2, %rcx cmpq $23, %rcx jb L_keccak1600_ref$18 movq 24(%rsp), %rsi movq 32(%rsp), %rdx movq 40(%rsp), %rax L_keccak1600_ref$16: cmpq %rax, %rdx jnb L_keccak1600_ref$17 movb 448(%rsp), %cl movq %rdx, %rdi shrq $3, %rdi movq $0, %r8 jmp L_keccak1600_ref$14 L_keccak1600_ref$15: movq (%rsi,%r8,8), %r9 xorq %r9, 48(%rsp,%r8,8) incq %r8 L_keccak1600_ref$14: cmpq %rdi, %r8 jb L_keccak1600_ref$15 shlq $3, %r8 jmp L_keccak1600_ref$12 L_keccak1600_ref$13: movb (%rsi,%r8), %dil xorb %dil, 48(%rsp,%r8) incq %r8 L_keccak1600_ref$12: cmpq %rdx, %r8 jb L_keccak1600_ref$13 xorb %cl, 48(%rsp,%r8) movq %rax, %rcx addq $-1, %rcx xorb $-128, 48(%rsp,%rcx) movq 16(%rsp), %rdx jmp L_keccak1600_ref$7 L_keccak1600_ref$8: movq %rdx, 16(%rsp) movq %rax, 40(%rsp) leaq glob_data + 0(%rip), %rax movq $0, %rcx L_keccak1600_ref$11: movq (%rax,%rcx,8), %r10 movq 48(%rsp), %r9 movq 56(%rsp), %r8 movq 64(%rsp), %r11 movq 72(%rsp), %rbx movq 80(%rsp), %rbp xorq 88(%rsp), %r9 xorq 96(%rsp), %r8 xorq 104(%rsp), %r11 xorq 112(%rsp), %rbx xorq 120(%rsp), %rbp xorq 128(%rsp), %r9 xorq 136(%rsp), %r8 xorq 144(%rsp), %r11 xorq 152(%rsp), %rbx xorq 160(%rsp), %rbp xorq 168(%rsp), %r9 xorq 176(%rsp), %r8 xorq 184(%rsp), %r11 xorq 192(%rsp), %rbx xorq 200(%rsp), %rbp xorq 208(%rsp), %r9 xorq 216(%rsp), %r8 xorq 224(%rsp), %r11 xorq 232(%rsp), %rbx xorq 240(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 48(%rsp), %r11 xorq %rdx, %r11 movq 96(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 144(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 192(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 240(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 248(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 256(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 264(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 272(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 280(%rsp) movq 72(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 120(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 128(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 176(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 224(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 288(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 296(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 304(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 312(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 320(%rsp) movq 56(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 104(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 152(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 200(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 208(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 328(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 336(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 344(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 352(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 360(%rsp) movq 80(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 88(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 136(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 184(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 232(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 368(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 376(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 384(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 392(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 400(%rsp) movq 64(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 112(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 160(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 168(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 216(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 408(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 416(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 424(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 432(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 440(%rsp) movq 8(%rax,%rcx,8), %r10 movq 248(%rsp), %r9 movq 256(%rsp), %r8 movq 264(%rsp), %r11 movq 272(%rsp), %rbx movq 280(%rsp), %rbp xorq 288(%rsp), %r9 xorq 296(%rsp), %r8 xorq 304(%rsp), %r11 xorq 312(%rsp), %rbx xorq 320(%rsp), %rbp xorq 328(%rsp), %r9 xorq 336(%rsp), %r8 xorq 344(%rsp), %r11 xorq 352(%rsp), %rbx xorq 360(%rsp), %rbp xorq 368(%rsp), %r9 xorq 376(%rsp), %r8 xorq 384(%rsp), %r11 xorq 392(%rsp), %rbx xorq 400(%rsp), %rbp xorq 408(%rsp), %r9 xorq 416(%rsp), %r8 xorq 424(%rsp), %r11 xorq 432(%rsp), %rbx xorq 440(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 248(%rsp), %r11 xorq %rdx, %r11 movq 296(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 344(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 392(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 440(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 48(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 56(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 64(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 72(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 80(%rsp) movq 272(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 320(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 328(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 376(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 424(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 88(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 96(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 104(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 112(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 120(%rsp) movq 256(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 304(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 352(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 400(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 408(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 128(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 136(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 144(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 152(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 160(%rsp) movq 280(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 288(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 336(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 384(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 432(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 168(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 176(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 184(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 192(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 200(%rsp) movq 264(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 312(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 360(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 368(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 416(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 208(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 216(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 224(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 232(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 240(%rsp) addq $2, %rcx cmpq $23, %rcx jb L_keccak1600_ref$11 movq 8(%rsp), %rcx movq 16(%rsp), %rdx movq 40(%rsp), %rax movq %rax, %rsi shrq $3, %rsi movq $0, %rdi jmp L_keccak1600_ref$9 L_keccak1600_ref$10: movq 48(%rsp,%rdi,8), %r8 movq %r8, (%rcx,%rdi,8) incq %rdi L_keccak1600_ref$9: cmpq %rsi, %rdi jb L_keccak1600_ref$10 addq %rax, %rcx subq %rax, %rdx movq %rcx, 8(%rsp) L_keccak1600_ref$7: cmpq %rax, %rdx jnbe L_keccak1600_ref$8 movq %rdx, 40(%rsp) leaq glob_data + 0(%rip), %rax movq $0, %rcx L_keccak1600_ref$6: movq (%rax,%rcx,8), %r10 movq 48(%rsp), %r9 movq 56(%rsp), %r8 movq 64(%rsp), %r11 movq 72(%rsp), %rbx movq 80(%rsp), %rbp xorq 88(%rsp), %r9 xorq 96(%rsp), %r8 xorq 104(%rsp), %r11 xorq 112(%rsp), %rbx xorq 120(%rsp), %rbp xorq 128(%rsp), %r9 xorq 136(%rsp), %r8 xorq 144(%rsp), %r11 xorq 152(%rsp), %rbx xorq 160(%rsp), %rbp xorq 168(%rsp), %r9 xorq 176(%rsp), %r8 xorq 184(%rsp), %r11 xorq 192(%rsp), %rbx xorq 200(%rsp), %rbp xorq 208(%rsp), %r9 xorq 216(%rsp), %r8 xorq 224(%rsp), %r11 xorq 232(%rsp), %rbx xorq 240(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 48(%rsp), %r11 xorq %rdx, %r11 movq 96(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 144(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 192(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 240(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 248(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 256(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 264(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 272(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 280(%rsp) movq 72(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 120(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 128(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 176(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 224(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 288(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 296(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 304(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 312(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 320(%rsp) movq 56(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 104(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 152(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 200(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 208(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 328(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 336(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 344(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 352(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 360(%rsp) movq 80(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 88(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 136(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 184(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 232(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 368(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 376(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 384(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 392(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 400(%rsp) movq 64(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 112(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 160(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 168(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 216(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 408(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 416(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 424(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 432(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 440(%rsp) movq 8(%rax,%rcx,8), %r10 movq 248(%rsp), %r9 movq 256(%rsp), %r8 movq 264(%rsp), %r11 movq 272(%rsp), %rbx movq 280(%rsp), %rbp xorq 288(%rsp), %r9 xorq 296(%rsp), %r8 xorq 304(%rsp), %r11 xorq 312(%rsp), %rbx xorq 320(%rsp), %rbp xorq 328(%rsp), %r9 xorq 336(%rsp), %r8 xorq 344(%rsp), %r11 xorq 352(%rsp), %rbx xorq 360(%rsp), %rbp xorq 368(%rsp), %r9 xorq 376(%rsp), %r8 xorq 384(%rsp), %r11 xorq 392(%rsp), %rbx xorq 400(%rsp), %rbp xorq 408(%rsp), %r9 xorq 416(%rsp), %r8 xorq 424(%rsp), %r11 xorq 432(%rsp), %rbx xorq 440(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 248(%rsp), %r11 xorq %rdx, %r11 movq 296(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 344(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 392(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 440(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 48(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 56(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 64(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 72(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 80(%rsp) movq 272(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 320(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 328(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 376(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 424(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 88(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 96(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 104(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 112(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 120(%rsp) movq 256(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 304(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 352(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 400(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 408(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 128(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 136(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 144(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 152(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 160(%rsp) movq 280(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 288(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 336(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 384(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 432(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 168(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 176(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 184(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 192(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 200(%rsp) movq 264(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 312(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 360(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 368(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 416(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 208(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 216(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 224(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 232(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 240(%rsp) addq $2, %rcx cmpq $23, %rcx jb L_keccak1600_ref$6 movq 8(%rsp), %rax movq 40(%rsp), %rcx movq %rcx, %rdx shrq $3, %rdx movq $0, %rsi jmp L_keccak1600_ref$4 L_keccak1600_ref$5: movq 48(%rsp,%rsi,8), %rdi movq %rdi, (%rax,%rsi,8) incq %rsi L_keccak1600_ref$4: cmpq %rdx, %rsi jb L_keccak1600_ref$5 shlq $3, %rsi jmp L_keccak1600_ref$2 L_keccak1600_ref$3: movb 48(%rsp,%rsi), %dl movb %dl, (%rax,%rsi) incq %rsi L_keccak1600_ref$2: cmpq %rcx, %rsi jb L_keccak1600_ref$3 ret .data .p2align 5 _glob_data: glob_data: .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128
verdict-x509/verdict
46,736
deps/libcrux/sys/libjade/jazz/sha256.s
.att_syntax .text .p2align 5 .globl _jade_hash_sha256_amd64_ref .globl jade_hash_sha256_amd64_ref _jade_hash_sha256_amd64_ref: jade_hash_sha256_amd64_ref: movq %rsp, %rax leaq -232(%rsp), %rsp andq $-8, %rsp movq %rax, 224(%rsp) movq %rbx, 176(%rsp) movq %rbp, 184(%rsp) movq %r12, 192(%rsp) movq %r13, 200(%rsp) movq %r14, 208(%rsp) movq %r15, 216(%rsp) movq %rdi, (%rsp) movq %rdx, %rax shlq $3, %rax movq %rax, 8(%rsp) movl $1779033703, 16(%rsp) movl $-1150833019, 20(%rsp) movl $1013904242, 24(%rsp) movl $-1521486534, 28(%rsp) movl $1359893119, 32(%rsp) movl $-1694144372, 36(%rsp) movl $528734635, 40(%rsp) movl $1541459225, 44(%rsp) leaq 16(%rsp), %rdi leaq -272(%rsp), %rsp leaq Ljade_hash_sha256_amd64_ref$12(%rip), %rcx jmp L_blocks_0_ref$1 Ljade_hash_sha256_amd64_ref$12: leaq 272(%rsp), %rsp movq 8(%rsp), %rcx movq $0, %rdi jmp Ljade_hash_sha256_amd64_ref$10 Ljade_hash_sha256_amd64_ref$11: movb (%rsi,%rdi), %al movb %al, 48(%rsp,%rdi) incq %rdi Ljade_hash_sha256_amd64_ref$10: cmpq %rdx, %rdi jb Ljade_hash_sha256_amd64_ref$11 movb $-128, 48(%rsp,%rdi) incq %rdi cmpq $56, %rdx jb Ljade_hash_sha256_amd64_ref$8 movq $120, %rdx movq $2, %rax jmp Ljade_hash_sha256_amd64_ref$9 Ljade_hash_sha256_amd64_ref$8: movq $56, %rdx movq $1, %rax Ljade_hash_sha256_amd64_ref$9: movb $0, %sil jmp Ljade_hash_sha256_amd64_ref$6 Ljade_hash_sha256_amd64_ref$7: movb %sil, 48(%rsp,%rdi) incq %rdi Ljade_hash_sha256_amd64_ref$6: cmpq %rdx, %rdi jb Ljade_hash_sha256_amd64_ref$7 addq $7, %rdi jmp Ljade_hash_sha256_amd64_ref$4 Ljade_hash_sha256_amd64_ref$5: movb %cl, 48(%rsp,%rdi) shrq $8, %rcx addq $-1, %rdi Ljade_hash_sha256_amd64_ref$4: cmpq %rdx, %rdi jnb Ljade_hash_sha256_amd64_ref$5 addq $9, %rdi jmp Ljade_hash_sha256_amd64_ref$2 Ljade_hash_sha256_amd64_ref$3: movb %sil, 48(%rsp,%rdi) incq %rdi Ljade_hash_sha256_amd64_ref$2: cmpq $128, %rdi jb Ljade_hash_sha256_amd64_ref$3 leaq 48(%rsp), %r8 leaq -280(%rsp), %rsp leaq Ljade_hash_sha256_amd64_ref$1(%rip), %rdx jmp L_blocks_1_ref$1 Ljade_hash_sha256_amd64_ref$1: leaq 280(%rsp), %rsp movq (%rsp), %rax movl 16(%rsp), %ecx bswapl %ecx movl %ecx, (%rax) movl 20(%rsp), %ecx bswapl %ecx movl %ecx, 4(%rax) movl 24(%rsp), %ecx bswapl %ecx movl %ecx, 8(%rax) movl 28(%rsp), %ecx bswapl %ecx movl %ecx, 12(%rax) movl 32(%rsp), %ecx bswapl %ecx movl %ecx, 16(%rax) movl 36(%rsp), %ecx bswapl %ecx movl %ecx, 20(%rax) movl 40(%rsp), %ecx bswapl %ecx movl %ecx, 24(%rax) movl 44(%rsp), %ecx bswapl %ecx movl %ecx, 28(%rax) xorq %rax, %rax movq 176(%rsp), %rbx movq 184(%rsp), %rbp movq 192(%rsp), %r12 movq 200(%rsp), %r13 movq 208(%rsp), %r14 movq 216(%rsp), %r15 movq 224(%rsp), %rsp ret L_blocks_1_ref$1: leaq glob_data + 0(%rip), %rcx movq %r9, (%rsp) movq $0, %rsi movq (%rsp), %rdi jmp L_blocks_1_ref$2 L_blocks_1_ref$3: movl (%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 24(%rsp) movl 4(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 28(%rsp) movl 8(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 32(%rsp) movl 12(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 36(%rsp) movl 16(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 40(%rsp) movl 20(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 44(%rsp) movl 24(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 48(%rsp) movl 28(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 52(%rsp) movl 32(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 56(%rsp) movl 36(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 60(%rsp) movl 40(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 64(%rsp) movl 44(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 68(%rsp) movl 48(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 72(%rsp) movl 52(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 76(%rsp) movl 56(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 80(%rsp) movl 60(%r8,%rsi,4), %r9d bswapl %r9d movl %r9d, 84(%rsp) addq $16, %rsi movq %rsi, (%rsp) movq %r8, 8(%rsp) movl 80(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 60(%rsp), %r8d movl 28(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 24(%rsp), %r8d movl %r8d, 88(%rsp) movl 84(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 64(%rsp), %r8d movl 32(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 28(%rsp), %r8d movl %r8d, 92(%rsp) movl 88(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 68(%rsp), %r8d movl 36(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 32(%rsp), %r8d movl %r8d, 96(%rsp) movl 92(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 72(%rsp), %r8d movl 40(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 36(%rsp), %r8d movl %r8d, 100(%rsp) movl 96(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 76(%rsp), %r8d movl 44(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 40(%rsp), %r8d movl %r8d, 104(%rsp) movl 100(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 80(%rsp), %r8d movl 48(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 44(%rsp), %r8d movl %r8d, 108(%rsp) movl 104(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 84(%rsp), %r8d movl 52(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 48(%rsp), %r8d movl %r8d, 112(%rsp) movl 108(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 88(%rsp), %r8d movl 56(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 52(%rsp), %r8d movl %r8d, 116(%rsp) movl 112(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 92(%rsp), %r8d movl 60(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 56(%rsp), %r8d movl %r8d, 120(%rsp) movl 116(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 96(%rsp), %r8d movl 64(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 60(%rsp), %r8d movl %r8d, 124(%rsp) movl 120(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 100(%rsp), %r8d movl 68(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 64(%rsp), %r8d movl %r8d, 128(%rsp) movl 124(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 104(%rsp), %r8d movl 72(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 68(%rsp), %r8d movl %r8d, 132(%rsp) movl 128(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 108(%rsp), %r8d movl 76(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 72(%rsp), %r8d movl %r8d, 136(%rsp) movl 132(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 112(%rsp), %r8d movl 80(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 76(%rsp), %r8d movl %r8d, 140(%rsp) movl 136(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 116(%rsp), %r8d movl 84(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 80(%rsp), %r8d movl %r8d, 144(%rsp) movl 140(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 120(%rsp), %r8d movl 88(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 84(%rsp), %r8d movl %r8d, 148(%rsp) movl 144(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 124(%rsp), %r8d movl 92(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 88(%rsp), %r8d movl %r8d, 152(%rsp) movl 148(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 128(%rsp), %r8d movl 96(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 92(%rsp), %r8d movl %r8d, 156(%rsp) movl 152(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 132(%rsp), %r8d movl 100(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 96(%rsp), %r8d movl %r8d, 160(%rsp) movl 156(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 136(%rsp), %r8d movl 104(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 100(%rsp), %r8d movl %r8d, 164(%rsp) movl 160(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 140(%rsp), %r8d movl 108(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 104(%rsp), %r8d movl %r8d, 168(%rsp) movl 164(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 144(%rsp), %r8d movl 112(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 108(%rsp), %r8d movl %r8d, 172(%rsp) movl 168(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 148(%rsp), %r8d movl 116(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 112(%rsp), %r8d movl %r8d, 176(%rsp) movl 172(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 152(%rsp), %r8d movl 120(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 116(%rsp), %r8d movl %r8d, 180(%rsp) movl 176(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 156(%rsp), %r8d movl 124(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 120(%rsp), %r8d movl %r8d, 184(%rsp) movl 180(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 160(%rsp), %r8d movl 128(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 124(%rsp), %r8d movl %r8d, 188(%rsp) movl 184(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 164(%rsp), %r8d movl 132(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 128(%rsp), %r8d movl %r8d, 192(%rsp) movl 188(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 168(%rsp), %r8d movl 136(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 132(%rsp), %r8d movl %r8d, 196(%rsp) movl 192(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 172(%rsp), %r8d movl 140(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 136(%rsp), %r8d movl %r8d, 200(%rsp) movl 196(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 176(%rsp), %r8d movl 144(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 140(%rsp), %r8d movl %r8d, 204(%rsp) movl 200(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 180(%rsp), %r8d movl 148(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 144(%rsp), %r8d movl %r8d, 208(%rsp) movl 204(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 184(%rsp), %r8d movl 152(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 148(%rsp), %r8d movl %r8d, 212(%rsp) movl 208(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 188(%rsp), %r8d movl 156(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 152(%rsp), %r8d movl %r8d, 216(%rsp) movl 212(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 192(%rsp), %r8d movl 160(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 156(%rsp), %r8d movl %r8d, 220(%rsp) movl 216(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 196(%rsp), %r8d movl 164(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 160(%rsp), %r8d movl %r8d, 224(%rsp) movl 220(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 200(%rsp), %r8d movl 168(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 164(%rsp), %r8d movl %r8d, 228(%rsp) movl 224(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 204(%rsp), %r8d movl 172(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 168(%rsp), %r8d movl %r8d, 232(%rsp) movl 228(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 208(%rsp), %r8d movl 176(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 172(%rsp), %r8d movl %r8d, 236(%rsp) movl 232(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 212(%rsp), %r8d movl 180(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 176(%rsp), %r8d movl %r8d, 240(%rsp) movl 236(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 216(%rsp), %r8d movl 184(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 180(%rsp), %r8d movl %r8d, 244(%rsp) movl 240(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 220(%rsp), %r8d movl 188(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 184(%rsp), %r8d movl %r8d, 248(%rsp) movl 244(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 224(%rsp), %r8d movl 192(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 188(%rsp), %r8d movl %r8d, 252(%rsp) movl 248(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 228(%rsp), %r8d movl 196(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 192(%rsp), %r8d movl %r8d, 256(%rsp) movl 252(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 232(%rsp), %r8d movl 200(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 196(%rsp), %r8d movl %r8d, 260(%rsp) movl 256(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 236(%rsp), %r8d movl 204(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 200(%rsp), %r8d movl %r8d, 264(%rsp) movl 260(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 240(%rsp), %r8d movl 208(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 204(%rsp), %r8d movl %r8d, 268(%rsp) movl 264(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 244(%rsp), %r8d movl 212(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 208(%rsp), %r8d movl %r8d, 272(%rsp) movl 268(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 248(%rsp), %r8d movl 216(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 212(%rsp), %r8d movl %r8d, 276(%rsp) movl (%rdi), %r14d movl 4(%rdi), %esi movl 8(%rdi), %r8d movl 12(%rdi), %r9d movl 16(%rdi), %r13d movl 20(%rdi), %r10d movl 24(%rdi), %r11d movl 28(%rdi), %r12d movq %rdi, 16(%rsp) movq $0, %rdi jmp L_blocks_1_ref$4 L_blocks_1_ref$5: movl %r12d, %ebx movl %r13d, %ebp rorl $6, %ebp movl %r13d, %r12d rorl $11, %r12d xorl %r12d, %ebp movl %r13d, %r12d rorl $25, %r12d xorl %r12d, %ebp addl %ebp, %ebx movl %r13d, %ebp andl %r10d, %ebp movl %r13d, %r12d notl %r12d andl %r11d, %r12d xorl %r12d, %ebp addl %ebp, %ebx addl (%rcx,%rdi,4), %ebx addl 24(%rsp,%rdi,4), %ebx movl %r14d, %ebp rorl $2, %ebp movl %r14d, %r12d rorl $13, %r12d xorl %r12d, %ebp movl %r14d, %r12d rorl $22, %r12d xorl %r12d, %ebp movl %r14d, %r12d andl %esi, %r12d movl %r14d, %r15d andl %r8d, %r15d xorl %r15d, %r12d movl %esi, %r15d andl %r8d, %r15d xorl %r15d, %r12d addl %r12d, %ebp movl %r11d, %r12d movl %r10d, %r11d movl %r13d, %r10d movl %r9d, %r13d addl %ebx, %r13d movl %r8d, %r9d movl %esi, %r8d movl %r14d, %esi movl %ebx, %r14d addl %ebp, %r14d incq %rdi L_blocks_1_ref$4: cmpq $64, %rdi jb L_blocks_1_ref$5 movq 16(%rsp), %rdi addl (%rdi), %r14d addl 4(%rdi), %esi addl 8(%rdi), %r8d addl 12(%rdi), %r9d addl 16(%rdi), %r13d addl 20(%rdi), %r10d addl 24(%rdi), %r11d addl 28(%rdi), %r12d movl %r14d, (%rdi) movl %esi, 4(%rdi) movl %r8d, 8(%rdi) movl %r9d, 12(%rdi) movl %r13d, 16(%rdi) movl %r10d, 20(%rdi) movl %r11d, 24(%rdi) movl %r12d, 28(%rdi) movq 8(%rsp), %r8 movq (%rsp), %rsi addq $-1, %rax L_blocks_1_ref$2: cmpq $0, %rax jnbe L_blocks_1_ref$3 jmp *%rdx L_blocks_0_ref$1: leaq glob_data + 0(%rip), %rax movq %rdi, (%rsp) movq (%rsp), %rdi jmp L_blocks_0_ref$2 L_blocks_0_ref$3: movl (%rsi), %r8d bswapl %r8d movl %r8d, 16(%rsp) movl 4(%rsi), %r8d bswapl %r8d movl %r8d, 20(%rsp) movl 8(%rsi), %r8d bswapl %r8d movl %r8d, 24(%rsp) movl 12(%rsi), %r8d bswapl %r8d movl %r8d, 28(%rsp) movl 16(%rsi), %r8d bswapl %r8d movl %r8d, 32(%rsp) movl 20(%rsi), %r8d bswapl %r8d movl %r8d, 36(%rsp) movl 24(%rsi), %r8d bswapl %r8d movl %r8d, 40(%rsp) movl 28(%rsi), %r8d bswapl %r8d movl %r8d, 44(%rsp) movl 32(%rsi), %r8d bswapl %r8d movl %r8d, 48(%rsp) movl 36(%rsi), %r8d bswapl %r8d movl %r8d, 52(%rsp) movl 40(%rsi), %r8d bswapl %r8d movl %r8d, 56(%rsp) movl 44(%rsi), %r8d bswapl %r8d movl %r8d, 60(%rsp) movl 48(%rsi), %r8d bswapl %r8d movl %r8d, 64(%rsp) movl 52(%rsi), %r8d bswapl %r8d movl %r8d, 68(%rsp) movl 56(%rsi), %r8d bswapl %r8d movl %r8d, 72(%rsp) movl 60(%rsi), %r8d bswapl %r8d movl %r8d, 76(%rsp) movq %rsi, (%rsp) movl 72(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 52(%rsp), %r8d movl 20(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 16(%rsp), %r8d movl %r8d, 80(%rsp) movl 76(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 56(%rsp), %r8d movl 24(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 20(%rsp), %r8d movl %r8d, 84(%rsp) movl 80(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 60(%rsp), %r8d movl 28(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 24(%rsp), %r8d movl %r8d, 88(%rsp) movl 84(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 64(%rsp), %r8d movl 32(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 28(%rsp), %r8d movl %r8d, 92(%rsp) movl 88(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 68(%rsp), %r8d movl 36(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 32(%rsp), %r8d movl %r8d, 96(%rsp) movl 92(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 72(%rsp), %r8d movl 40(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 36(%rsp), %r8d movl %r8d, 100(%rsp) movl 96(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 76(%rsp), %r8d movl 44(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 40(%rsp), %r8d movl %r8d, 104(%rsp) movl 100(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 80(%rsp), %r8d movl 48(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 44(%rsp), %r8d movl %r8d, 108(%rsp) movl 104(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 84(%rsp), %r8d movl 52(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 48(%rsp), %r8d movl %r8d, 112(%rsp) movl 108(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 88(%rsp), %r8d movl 56(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 52(%rsp), %r8d movl %r8d, 116(%rsp) movl 112(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 92(%rsp), %r8d movl 60(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 56(%rsp), %r8d movl %r8d, 120(%rsp) movl 116(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 96(%rsp), %r8d movl 64(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 60(%rsp), %r8d movl %r8d, 124(%rsp) movl 120(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 100(%rsp), %r8d movl 68(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 64(%rsp), %r8d movl %r8d, 128(%rsp) movl 124(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 104(%rsp), %r8d movl 72(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 68(%rsp), %r8d movl %r8d, 132(%rsp) movl 128(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 108(%rsp), %r8d movl 76(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 72(%rsp), %r8d movl %r8d, 136(%rsp) movl 132(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 112(%rsp), %r8d movl 80(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 76(%rsp), %r8d movl %r8d, 140(%rsp) movl 136(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 116(%rsp), %r8d movl 84(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 80(%rsp), %r8d movl %r8d, 144(%rsp) movl 140(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 120(%rsp), %r8d movl 88(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 84(%rsp), %r8d movl %r8d, 148(%rsp) movl 144(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 124(%rsp), %r8d movl 92(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 88(%rsp), %r8d movl %r8d, 152(%rsp) movl 148(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 128(%rsp), %r8d movl 96(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 92(%rsp), %r8d movl %r8d, 156(%rsp) movl 152(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 132(%rsp), %r8d movl 100(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 96(%rsp), %r8d movl %r8d, 160(%rsp) movl 156(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 136(%rsp), %r8d movl 104(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 100(%rsp), %r8d movl %r8d, 164(%rsp) movl 160(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 140(%rsp), %r8d movl 108(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 104(%rsp), %r8d movl %r8d, 168(%rsp) movl 164(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 144(%rsp), %r8d movl 112(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 108(%rsp), %r8d movl %r8d, 172(%rsp) movl 168(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 148(%rsp), %r8d movl 116(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 112(%rsp), %r8d movl %r8d, 176(%rsp) movl 172(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 152(%rsp), %r8d movl 120(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 116(%rsp), %r8d movl %r8d, 180(%rsp) movl 176(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 156(%rsp), %r8d movl 124(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 120(%rsp), %r8d movl %r8d, 184(%rsp) movl 180(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 160(%rsp), %r8d movl 128(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 124(%rsp), %r8d movl %r8d, 188(%rsp) movl 184(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 164(%rsp), %r8d movl 132(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 128(%rsp), %r8d movl %r8d, 192(%rsp) movl 188(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 168(%rsp), %r8d movl 136(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 132(%rsp), %r8d movl %r8d, 196(%rsp) movl 192(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 172(%rsp), %r8d movl 140(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 136(%rsp), %r8d movl %r8d, 200(%rsp) movl 196(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 176(%rsp), %r8d movl 144(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 140(%rsp), %r8d movl %r8d, 204(%rsp) movl 200(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 180(%rsp), %r8d movl 148(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 144(%rsp), %r8d movl %r8d, 208(%rsp) movl 204(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 184(%rsp), %r8d movl 152(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 148(%rsp), %r8d movl %r8d, 212(%rsp) movl 208(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 188(%rsp), %r8d movl 156(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 152(%rsp), %r8d movl %r8d, 216(%rsp) movl 212(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 192(%rsp), %r8d movl 160(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 156(%rsp), %r8d movl %r8d, 220(%rsp) movl 216(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 196(%rsp), %r8d movl 164(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 160(%rsp), %r8d movl %r8d, 224(%rsp) movl 220(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 200(%rsp), %r8d movl 168(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 164(%rsp), %r8d movl %r8d, 228(%rsp) movl 224(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 204(%rsp), %r8d movl 172(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 168(%rsp), %r8d movl %r8d, 232(%rsp) movl 228(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 208(%rsp), %r8d movl 176(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 172(%rsp), %r8d movl %r8d, 236(%rsp) movl 232(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 212(%rsp), %r8d movl 180(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 176(%rsp), %r8d movl %r8d, 240(%rsp) movl 236(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 216(%rsp), %r8d movl 184(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 180(%rsp), %r8d movl %r8d, 244(%rsp) movl 240(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 220(%rsp), %r8d movl 188(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 184(%rsp), %r8d movl %r8d, 248(%rsp) movl 244(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 224(%rsp), %r8d movl 192(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 188(%rsp), %r8d movl %r8d, 252(%rsp) movl 248(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 228(%rsp), %r8d movl 196(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 192(%rsp), %r8d movl %r8d, 256(%rsp) movl 252(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 232(%rsp), %r8d movl 200(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 196(%rsp), %r8d movl %r8d, 260(%rsp) movl 256(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 236(%rsp), %r8d movl 204(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 200(%rsp), %r8d movl %r8d, 264(%rsp) movl 260(%rsp), %esi movl %esi, %r8d rorl $17, %r8d movl %esi, %r9d rorl $19, %r9d xorl %r9d, %r8d shrl $10, %esi xorl %esi, %r8d addl 240(%rsp), %r8d movl 208(%rsp), %esi movl %esi, %r9d rorl $7, %r9d movl %esi, %r10d rorl $18, %r10d xorl %r10d, %r9d shrl $3, %esi xorl %esi, %r9d addl %r9d, %r8d addl 204(%rsp), %r8d movl %r8d, 268(%rsp) movl (%rdi), %r14d movl 4(%rdi), %esi movl 8(%rdi), %r8d movl 12(%rdi), %r9d movl 16(%rdi), %r13d movl 20(%rdi), %r10d movl 24(%rdi), %r11d movl 28(%rdi), %r12d movq %rdi, 8(%rsp) movq $0, %rdi jmp L_blocks_0_ref$4 L_blocks_0_ref$5: movl %r12d, %ebx movl %r13d, %ebp rorl $6, %ebp movl %r13d, %r12d rorl $11, %r12d xorl %r12d, %ebp movl %r13d, %r12d rorl $25, %r12d xorl %r12d, %ebp addl %ebp, %ebx movl %r13d, %ebp andl %r10d, %ebp movl %r13d, %r12d notl %r12d andl %r11d, %r12d xorl %r12d, %ebp addl %ebp, %ebx addl (%rax,%rdi,4), %ebx addl 16(%rsp,%rdi,4), %ebx movl %r14d, %ebp rorl $2, %ebp movl %r14d, %r12d rorl $13, %r12d xorl %r12d, %ebp movl %r14d, %r12d rorl $22, %r12d xorl %r12d, %ebp movl %r14d, %r12d andl %esi, %r12d movl %r14d, %r15d andl %r8d, %r15d xorl %r15d, %r12d movl %esi, %r15d andl %r8d, %r15d xorl %r15d, %r12d addl %r12d, %ebp movl %r11d, %r12d movl %r10d, %r11d movl %r13d, %r10d movl %r9d, %r13d addl %ebx, %r13d movl %r8d, %r9d movl %esi, %r8d movl %r14d, %esi movl %ebx, %r14d addl %ebp, %r14d incq %rdi L_blocks_0_ref$4: cmpq $64, %rdi jb L_blocks_0_ref$5 movq 8(%rsp), %rdi addl (%rdi), %r14d addl 4(%rdi), %esi addl 8(%rdi), %r8d addl 12(%rdi), %r9d addl 16(%rdi), %r13d addl 20(%rdi), %r10d addl 24(%rdi), %r11d addl 28(%rdi), %r12d movl %r14d, (%rdi) movl %esi, 4(%rdi) movl %r8d, 8(%rdi) movl %r9d, 12(%rdi) movl %r13d, 16(%rdi) movl %r10d, 20(%rdi) movl %r11d, 24(%rdi) movl %r12d, 28(%rdi) movq (%rsp), %rsi addq $64, %rsi addq $-64, %rdx L_blocks_0_ref$2: cmpq $64, %rdx jnb L_blocks_0_ref$3 movq %rdi, %r9 jmp *%rcx .data .p2align 5 _glob_data: glob_data: .byte -104 .byte 47 .byte -118 .byte 66 .byte -111 .byte 68 .byte 55 .byte 113 .byte -49 .byte -5 .byte -64 .byte -75 .byte -91 .byte -37 .byte -75 .byte -23 .byte 91 .byte -62 .byte 86 .byte 57 .byte -15 .byte 17 .byte -15 .byte 89 .byte -92 .byte -126 .byte 63 .byte -110 .byte -43 .byte 94 .byte 28 .byte -85 .byte -104 .byte -86 .byte 7 .byte -40 .byte 1 .byte 91 .byte -125 .byte 18 .byte -66 .byte -123 .byte 49 .byte 36 .byte -61 .byte 125 .byte 12 .byte 85 .byte 116 .byte 93 .byte -66 .byte 114 .byte -2 .byte -79 .byte -34 .byte -128 .byte -89 .byte 6 .byte -36 .byte -101 .byte 116 .byte -15 .byte -101 .byte -63 .byte -63 .byte 105 .byte -101 .byte -28 .byte -122 .byte 71 .byte -66 .byte -17 .byte -58 .byte -99 .byte -63 .byte 15 .byte -52 .byte -95 .byte 12 .byte 36 .byte 111 .byte 44 .byte -23 .byte 45 .byte -86 .byte -124 .byte 116 .byte 74 .byte -36 .byte -87 .byte -80 .byte 92 .byte -38 .byte -120 .byte -7 .byte 118 .byte 82 .byte 81 .byte 62 .byte -104 .byte 109 .byte -58 .byte 49 .byte -88 .byte -56 .byte 39 .byte 3 .byte -80 .byte -57 .byte 127 .byte 89 .byte -65 .byte -13 .byte 11 .byte -32 .byte -58 .byte 71 .byte -111 .byte -89 .byte -43 .byte 81 .byte 99 .byte -54 .byte 6 .byte 103 .byte 41 .byte 41 .byte 20 .byte -123 .byte 10 .byte -73 .byte 39 .byte 56 .byte 33 .byte 27 .byte 46 .byte -4 .byte 109 .byte 44 .byte 77 .byte 19 .byte 13 .byte 56 .byte 83 .byte 84 .byte 115 .byte 10 .byte 101 .byte -69 .byte 10 .byte 106 .byte 118 .byte 46 .byte -55 .byte -62 .byte -127 .byte -123 .byte 44 .byte 114 .byte -110 .byte -95 .byte -24 .byte -65 .byte -94 .byte 75 .byte 102 .byte 26 .byte -88 .byte 112 .byte -117 .byte 75 .byte -62 .byte -93 .byte 81 .byte 108 .byte -57 .byte 25 .byte -24 .byte -110 .byte -47 .byte 36 .byte 6 .byte -103 .byte -42 .byte -123 .byte 53 .byte 14 .byte -12 .byte 112 .byte -96 .byte 106 .byte 16 .byte 22 .byte -63 .byte -92 .byte 25 .byte 8 .byte 108 .byte 55 .byte 30 .byte 76 .byte 119 .byte 72 .byte 39 .byte -75 .byte -68 .byte -80 .byte 52 .byte -77 .byte 12 .byte 28 .byte 57 .byte 74 .byte -86 .byte -40 .byte 78 .byte 79 .byte -54 .byte -100 .byte 91 .byte -13 .byte 111 .byte 46 .byte 104 .byte -18 .byte -126 .byte -113 .byte 116 .byte 111 .byte 99 .byte -91 .byte 120 .byte 20 .byte 120 .byte -56 .byte -124 .byte 8 .byte 2 .byte -57 .byte -116 .byte -6 .byte -1 .byte -66 .byte -112 .byte -21 .byte 108 .byte 80 .byte -92 .byte -9 .byte -93 .byte -7 .byte -66 .byte -14 .byte 120 .byte 113 .byte -58
verdict-x509/verdict
34,209
deps/libcrux/sys/libjade/jazz/sha3_384_avx2.s
.att_syntax .text .p2align 5 .globl _jade_hash_sha3_384_amd64_avx2 .globl jade_hash_sha3_384_amd64_avx2 _jade_hash_sha3_384_amd64_avx2: jade_hash_sha3_384_amd64_avx2: movq %rsp, %rax leaq -40(%rsp), %rsp andq $-32, %rsp movq %rax, 32(%rsp) movq %rbx, (%rsp) movq %rbp, 8(%rsp) movq %r12, 16(%rsp) movq %r13, 24(%rsp) movq $48, %r9 movb $6, %al movq $104, %rcx leaq -224(%rsp), %rsp leaq Ljade_hash_sha3_384_amd64_avx2$1(%rip), %r10 jmp L_keccak1600_avx2$1 Ljade_hash_sha3_384_amd64_avx2$1: leaq 224(%rsp), %rsp xorq %rax, %rax movq (%rsp), %rbx movq 8(%rsp), %rbp movq 16(%rsp), %r12 movq 24(%rsp), %r13 movq 32(%rsp), %rsp ret L_keccak1600_avx2$1: vpxor %ymm6, %ymm6, %ymm6 vpxor %ymm3, %ymm3, %ymm3 vpxor %ymm4, %ymm4, %ymm4 vpxor %ymm0, %ymm0, %ymm0 vpxor %ymm5, %ymm5, %ymm5 vpxor %ymm1, %ymm1, %ymm1 vpxor %ymm2, %ymm2, %ymm2 leaq glob_data + 1152(%rip), %r8 vpxor %ymm7, %ymm7, %ymm7 vmovdqu %ymm7, (%rsp) vmovdqu %ymm7, 32(%rsp) vmovdqu %ymm7, 64(%rsp) vmovdqu %ymm7, 96(%rsp) vmovdqu %ymm7, 128(%rsp) vmovdqu %ymm7, 160(%rsp) vmovdqu %ymm7, 192(%rsp) jmp L_keccak1600_avx2$16 L_keccak1600_avx2$17: movq %rcx, %r11 shrq $3, %r11 movq $0, %rbx jmp L_keccak1600_avx2$19 L_keccak1600_avx2$20: movq (%rsi,%rbx,8), %rbp movq (%r8,%rbx,8), %r12 movq %rbp, (%rsp,%r12,8) incq %rbx L_keccak1600_avx2$19: cmpq %r11, %rbx jb L_keccak1600_avx2$20 movq (%rsp), %r11 movq %r11, 8(%rsp) movq %r11, 16(%rsp) movq %r11, 24(%rsp) vpxor (%rsp), %ymm6, %ymm6 vpxor 32(%rsp), %ymm3, %ymm3 vpxor 64(%rsp), %ymm4, %ymm4 vpxor 96(%rsp), %ymm0, %ymm0 vpxor 128(%rsp), %ymm5, %ymm5 vpxor 160(%rsp), %ymm1, %ymm1 vpxor 192(%rsp), %ymm2, %ymm2 addq %rcx, %rsi subq %rcx, %rdx leaq glob_data + 384(%rip), %r11 movq $0, %rbx leaq glob_data + 192(%rip), %rbp leaq glob_data + 0(%rip), %r12 movq $24, %r13 L_keccak1600_avx2$18: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rbp), %ymm4, %ymm7 vpsrlvq (%r12), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%rbp), %ymm0, %ymm7 vpsrlvq 64(%r12), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%rbp), %ymm5, %ymm7 vpsrlvq 96(%r12), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%rbp), %ymm1, %ymm5 vpsrlvq 128(%r12), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%rbp), %ymm2, %ymm0 vpsrlvq 160(%r12), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%rbp), %ymm0, %ymm1 vpsrlvq 32(%r12), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%r11,%rbx), %ymm6, %ymm6 addq $32, %rbx decq %r13 jne L_keccak1600_avx2$18 L_keccak1600_avx2$16: cmpq %rcx, %rdx jnb L_keccak1600_avx2$17 vpxor %ymm7, %ymm7, %ymm7 vmovdqu %ymm7, (%rsp) vmovdqu %ymm7, 32(%rsp) vmovdqu %ymm7, 64(%rsp) vmovdqu %ymm7, 96(%rsp) vmovdqu %ymm7, 128(%rsp) vmovdqu %ymm7, 160(%rsp) vmovdqu %ymm7, 192(%rsp) movq %rdx, %r11 shrq $3, %r11 movq $0, %rbx jmp L_keccak1600_avx2$14 L_keccak1600_avx2$15: movq (%rsi,%rbx,8), %rbp movq (%r8,%rbx,8), %r12 movq %rbp, (%rsp,%r12,8) incq %rbx L_keccak1600_avx2$14: cmpq %r11, %rbx jb L_keccak1600_avx2$15 movq (%r8,%rbx,8), %r11 shlq $3, %r11 shlq $3, %rbx jmp L_keccak1600_avx2$12 L_keccak1600_avx2$13: movb (%rsi,%rbx), %bpl movb %bpl, (%rsp,%r11) incq %rbx incq %r11 L_keccak1600_avx2$12: cmpq %rdx, %rbx jb L_keccak1600_avx2$13 movb %al, (%rsp,%r11) movq %rcx, %rax addq $-1, %rax shrq $3, %rax movq (%r8,%rax,8), %rax shlq $3, %rax movq %rcx, %rdx addq $-1, %rdx andq $7, %rdx addq %rdx, %rax xorb $-128, (%rsp,%rax) movq (%rsp), %rax movq %rax, 8(%rsp) movq %rax, 16(%rsp) movq %rax, 24(%rsp) vpxor (%rsp), %ymm6, %ymm6 vpxor 32(%rsp), %ymm3, %ymm3 vpxor 64(%rsp), %ymm4, %ymm4 vpxor 96(%rsp), %ymm0, %ymm0 vpxor 128(%rsp), %ymm5, %ymm5 vpxor 160(%rsp), %ymm1, %ymm1 vpxor 192(%rsp), %ymm2, %ymm2 leaq glob_data + 1152(%rip), %rax jmp L_keccak1600_avx2$7 L_keccak1600_avx2$8: leaq glob_data + 384(%rip), %rdx movq $0, %rsi leaq glob_data + 192(%rip), %r8 leaq glob_data + 0(%rip), %r11 movq $24, %rbx L_keccak1600_avx2$11: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%r8), %ymm4, %ymm7 vpsrlvq (%r11), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%r8), %ymm0, %ymm7 vpsrlvq 64(%r11), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%r8), %ymm5, %ymm7 vpsrlvq 96(%r11), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%r8), %ymm1, %ymm5 vpsrlvq 128(%r11), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%r8), %ymm2, %ymm0 vpsrlvq 160(%r11), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%r8), %ymm0, %ymm1 vpsrlvq 32(%r11), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%rdx,%rsi), %ymm6, %ymm6 addq $32, %rsi decq %rbx jne L_keccak1600_avx2$11 vmovdqu %ymm6, (%rsp) vmovdqu %ymm3, 32(%rsp) vmovdqu %ymm4, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm5, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) movq %rcx, %rdx shrq $3, %rdx movq $0, %rsi jmp L_keccak1600_avx2$9 L_keccak1600_avx2$10: movq (%rax,%rsi,8), %r8 movq (%rsp,%r8,8), %r8 movq %r8, (%rdi,%rsi,8) incq %rsi L_keccak1600_avx2$9: cmpq %rdx, %rsi jb L_keccak1600_avx2$10 addq %rcx, %rdi subq %rcx, %r9 L_keccak1600_avx2$7: cmpq %rcx, %r9 jnbe L_keccak1600_avx2$8 leaq glob_data + 384(%rip), %rcx movq $0, %rdx leaq glob_data + 192(%rip), %rsi leaq glob_data + 0(%rip), %r8 movq $24, %r11 L_keccak1600_avx2$6: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm4, %ymm7 vpsrlvq (%r8), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%rsi), %ymm0, %ymm7 vpsrlvq 64(%r8), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%rsi), %ymm5, %ymm7 vpsrlvq 96(%r8), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%rsi), %ymm1, %ymm5 vpsrlvq 128(%r8), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%rsi), %ymm2, %ymm0 vpsrlvq 160(%r8), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%rsi), %ymm0, %ymm1 vpsrlvq 32(%r8), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%rcx,%rdx), %ymm6, %ymm6 addq $32, %rdx decq %r11 jne L_keccak1600_avx2$6 vmovdqu %ymm6, (%rsp) vmovdqu %ymm3, 32(%rsp) vmovdqu %ymm4, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm5, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) movq %r9, %rcx shrq $3, %rcx movq $0, %rdx jmp L_keccak1600_avx2$4 L_keccak1600_avx2$5: movq (%rax,%rdx,8), %rsi movq (%rsp,%rsi,8), %rsi movq %rsi, (%rdi,%rdx,8) incq %rdx L_keccak1600_avx2$4: cmpq %rcx, %rdx jb L_keccak1600_avx2$5 movq (%rax,%rdx,8), %rax shlq $3, %rdx shlq $3, %rax jmp L_keccak1600_avx2$2 L_keccak1600_avx2$3: movb (%rsp,%rax), %cl movb %cl, (%rdi,%rdx) incq %rdx incq %rax L_keccak1600_avx2$2: cmpq %r9, %rdx jb L_keccak1600_avx2$3 jmp *%r10 .data .p2align 5 _glob_data: glob_data: .byte 61 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 46 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 28 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 23 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 63 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 36 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 37 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 19 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 58 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 54 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 56 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 62 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 49 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 39 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 44 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 43 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 50 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 18 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 36 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 41 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 62 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 28 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 27 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 45 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 6 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 56 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 39 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 61 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 55 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 15 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 44 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 43 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 14 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 4 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 5 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 6 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 7 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 24 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 13 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 18 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 23 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 16 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 22 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 15 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 11 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 12 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 26 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 19 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 17 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 14 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 27 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0
verdict-x509/verdict
34,208
deps/libcrux/sys/libjade/jazz/sha3_512_avx2.s
.att_syntax .text .p2align 5 .globl _jade_hash_sha3_512_amd64_avx2 .globl jade_hash_sha3_512_amd64_avx2 _jade_hash_sha3_512_amd64_avx2: jade_hash_sha3_512_amd64_avx2: movq %rsp, %rax leaq -40(%rsp), %rsp andq $-32, %rsp movq %rax, 32(%rsp) movq %rbx, (%rsp) movq %rbp, 8(%rsp) movq %r12, 16(%rsp) movq %r13, 24(%rsp) movq $64, %r9 movb $6, %al movq $72, %rcx leaq -224(%rsp), %rsp leaq Ljade_hash_sha3_512_amd64_avx2$1(%rip), %r10 jmp L_keccak1600_avx2$1 Ljade_hash_sha3_512_amd64_avx2$1: leaq 224(%rsp), %rsp xorq %rax, %rax movq (%rsp), %rbx movq 8(%rsp), %rbp movq 16(%rsp), %r12 movq 24(%rsp), %r13 movq 32(%rsp), %rsp ret L_keccak1600_avx2$1: vpxor %ymm6, %ymm6, %ymm6 vpxor %ymm3, %ymm3, %ymm3 vpxor %ymm4, %ymm4, %ymm4 vpxor %ymm0, %ymm0, %ymm0 vpxor %ymm5, %ymm5, %ymm5 vpxor %ymm1, %ymm1, %ymm1 vpxor %ymm2, %ymm2, %ymm2 leaq glob_data + 1152(%rip), %r8 vpxor %ymm7, %ymm7, %ymm7 vmovdqu %ymm7, (%rsp) vmovdqu %ymm7, 32(%rsp) vmovdqu %ymm7, 64(%rsp) vmovdqu %ymm7, 96(%rsp) vmovdqu %ymm7, 128(%rsp) vmovdqu %ymm7, 160(%rsp) vmovdqu %ymm7, 192(%rsp) jmp L_keccak1600_avx2$16 L_keccak1600_avx2$17: movq %rcx, %r11 shrq $3, %r11 movq $0, %rbx jmp L_keccak1600_avx2$19 L_keccak1600_avx2$20: movq (%rsi,%rbx,8), %rbp movq (%r8,%rbx,8), %r12 movq %rbp, (%rsp,%r12,8) incq %rbx L_keccak1600_avx2$19: cmpq %r11, %rbx jb L_keccak1600_avx2$20 movq (%rsp), %r11 movq %r11, 8(%rsp) movq %r11, 16(%rsp) movq %r11, 24(%rsp) vpxor (%rsp), %ymm6, %ymm6 vpxor 32(%rsp), %ymm3, %ymm3 vpxor 64(%rsp), %ymm4, %ymm4 vpxor 96(%rsp), %ymm0, %ymm0 vpxor 128(%rsp), %ymm5, %ymm5 vpxor 160(%rsp), %ymm1, %ymm1 vpxor 192(%rsp), %ymm2, %ymm2 addq %rcx, %rsi subq %rcx, %rdx leaq glob_data + 384(%rip), %r11 movq $0, %rbx leaq glob_data + 192(%rip), %rbp leaq glob_data + 0(%rip), %r12 movq $24, %r13 L_keccak1600_avx2$18: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rbp), %ymm4, %ymm7 vpsrlvq (%r12), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%rbp), %ymm0, %ymm7 vpsrlvq 64(%r12), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%rbp), %ymm5, %ymm7 vpsrlvq 96(%r12), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%rbp), %ymm1, %ymm5 vpsrlvq 128(%r12), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%rbp), %ymm2, %ymm0 vpsrlvq 160(%r12), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%rbp), %ymm0, %ymm1 vpsrlvq 32(%r12), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%r11,%rbx), %ymm6, %ymm6 addq $32, %rbx decq %r13 jne L_keccak1600_avx2$18 L_keccak1600_avx2$16: cmpq %rcx, %rdx jnb L_keccak1600_avx2$17 vpxor %ymm7, %ymm7, %ymm7 vmovdqu %ymm7, (%rsp) vmovdqu %ymm7, 32(%rsp) vmovdqu %ymm7, 64(%rsp) vmovdqu %ymm7, 96(%rsp) vmovdqu %ymm7, 128(%rsp) vmovdqu %ymm7, 160(%rsp) vmovdqu %ymm7, 192(%rsp) movq %rdx, %r11 shrq $3, %r11 movq $0, %rbx jmp L_keccak1600_avx2$14 L_keccak1600_avx2$15: movq (%rsi,%rbx,8), %rbp movq (%r8,%rbx,8), %r12 movq %rbp, (%rsp,%r12,8) incq %rbx L_keccak1600_avx2$14: cmpq %r11, %rbx jb L_keccak1600_avx2$15 movq (%r8,%rbx,8), %r11 shlq $3, %r11 shlq $3, %rbx jmp L_keccak1600_avx2$12 L_keccak1600_avx2$13: movb (%rsi,%rbx), %bpl movb %bpl, (%rsp,%r11) incq %rbx incq %r11 L_keccak1600_avx2$12: cmpq %rdx, %rbx jb L_keccak1600_avx2$13 movb %al, (%rsp,%r11) movq %rcx, %rax addq $-1, %rax shrq $3, %rax movq (%r8,%rax,8), %rax shlq $3, %rax movq %rcx, %rdx addq $-1, %rdx andq $7, %rdx addq %rdx, %rax xorb $-128, (%rsp,%rax) movq (%rsp), %rax movq %rax, 8(%rsp) movq %rax, 16(%rsp) movq %rax, 24(%rsp) vpxor (%rsp), %ymm6, %ymm6 vpxor 32(%rsp), %ymm3, %ymm3 vpxor 64(%rsp), %ymm4, %ymm4 vpxor 96(%rsp), %ymm0, %ymm0 vpxor 128(%rsp), %ymm5, %ymm5 vpxor 160(%rsp), %ymm1, %ymm1 vpxor 192(%rsp), %ymm2, %ymm2 leaq glob_data + 1152(%rip), %rax jmp L_keccak1600_avx2$7 L_keccak1600_avx2$8: leaq glob_data + 384(%rip), %rdx movq $0, %rsi leaq glob_data + 192(%rip), %r8 leaq glob_data + 0(%rip), %r11 movq $24, %rbx L_keccak1600_avx2$11: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%r8), %ymm4, %ymm7 vpsrlvq (%r11), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%r8), %ymm0, %ymm7 vpsrlvq 64(%r11), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%r8), %ymm5, %ymm7 vpsrlvq 96(%r11), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%r8), %ymm1, %ymm5 vpsrlvq 128(%r11), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%r8), %ymm2, %ymm0 vpsrlvq 160(%r11), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%r8), %ymm0, %ymm1 vpsrlvq 32(%r11), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%rdx,%rsi), %ymm6, %ymm6 addq $32, %rsi decq %rbx jne L_keccak1600_avx2$11 vmovdqu %ymm6, (%rsp) vmovdqu %ymm3, 32(%rsp) vmovdqu %ymm4, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm5, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) movq %rcx, %rdx shrq $3, %rdx movq $0, %rsi jmp L_keccak1600_avx2$9 L_keccak1600_avx2$10: movq (%rax,%rsi,8), %r8 movq (%rsp,%r8,8), %r8 movq %r8, (%rdi,%rsi,8) incq %rsi L_keccak1600_avx2$9: cmpq %rdx, %rsi jb L_keccak1600_avx2$10 addq %rcx, %rdi subq %rcx, %r9 L_keccak1600_avx2$7: cmpq %rcx, %r9 jnbe L_keccak1600_avx2$8 leaq glob_data + 384(%rip), %rcx movq $0, %rdx leaq glob_data + 192(%rip), %rsi leaq glob_data + 0(%rip), %r8 movq $24, %r11 L_keccak1600_avx2$6: vpshufd $78, %ymm4, %ymm8 vpxor %ymm0, %ymm1, %ymm7 vpxor %ymm2, %ymm5, %ymm9 vpxor %ymm3, %ymm7, %ymm7 vpxor %ymm9, %ymm7, %ymm10 vpermq $-109, %ymm10, %ymm7 vpxor %ymm4, %ymm8, %ymm8 vpermq $78, %ymm8, %ymm9 vpsrlq $63, %ymm10, %ymm11 vpaddq %ymm10, %ymm10, %ymm10 vpor %ymm10, %ymm11, %ymm11 vpermq $57, %ymm11, %ymm10 vpxor %ymm7, %ymm11, %ymm11 vpermq $0, %ymm11, %ymm11 vpxor %ymm6, %ymm8, %ymm8 vpxor %ymm9, %ymm8, %ymm8 vpsrlq $63, %ymm8, %ymm9 vpaddq %ymm8, %ymm8, %ymm12 vpor %ymm9, %ymm12, %ymm9 vpxor %ymm11, %ymm4, %ymm4 vpxor %ymm11, %ymm6, %ymm6 vpblendd $-64, %ymm9, %ymm10, %ymm9 vpblendd $3, %ymm8, %ymm7, %ymm7 vpxor %ymm7, %ymm9, %ymm9 vpsllvq (%rsi), %ymm4, %ymm7 vpsrlvq (%r8), %ymm4, %ymm4 vpor %ymm7, %ymm4, %ymm4 vpxor %ymm9, %ymm0, %ymm0 vpsllvq 64(%rsi), %ymm0, %ymm7 vpsrlvq 64(%r8), %ymm0, %ymm0 vpor %ymm7, %ymm0, %ymm0 vpxor %ymm9, %ymm5, %ymm5 vpsllvq 96(%rsi), %ymm5, %ymm7 vpsrlvq 96(%r8), %ymm5, %ymm5 vpor %ymm7, %ymm5, %ymm10 vpxor %ymm9, %ymm1, %ymm1 vpsllvq 128(%rsi), %ymm1, %ymm5 vpsrlvq 128(%r8), %ymm1, %ymm1 vpor %ymm5, %ymm1, %ymm1 vpxor %ymm9, %ymm2, %ymm2 vpermq $-115, %ymm4, %ymm5 vpermq $-115, %ymm0, %ymm7 vpsllvq 160(%rsi), %ymm2, %ymm0 vpsrlvq 160(%r8), %ymm2, %ymm2 vpor %ymm0, %ymm2, %ymm8 vpxor %ymm9, %ymm3, %ymm0 vpermq $27, %ymm10, %ymm3 vpermq $114, %ymm1, %ymm9 vpsllvq 32(%rsi), %ymm0, %ymm1 vpsrlvq 32(%r8), %ymm0, %ymm0 vpor %ymm1, %ymm0, %ymm10 vpsrldq $8, %ymm8, %ymm0 vpandn %ymm0, %ymm8, %ymm0 vpblendd $12, %ymm9, %ymm10, %ymm1 vpblendd $12, %ymm10, %ymm7, %ymm2 vpblendd $12, %ymm7, %ymm5, %ymm4 vpblendd $12, %ymm5, %ymm10, %ymm11 vpblendd $48, %ymm7, %ymm1, %ymm1 vpblendd $48, %ymm3, %ymm2, %ymm2 vpblendd $48, %ymm10, %ymm4, %ymm4 vpblendd $48, %ymm9, %ymm11, %ymm11 vpblendd $-64, %ymm3, %ymm1, %ymm1 vpblendd $-64, %ymm9, %ymm2, %ymm2 vpblendd $-64, %ymm9, %ymm4, %ymm4 vpblendd $-64, %ymm7, %ymm11, %ymm11 vpandn %ymm2, %ymm1, %ymm1 vpandn %ymm11, %ymm4, %ymm2 vpblendd $12, %ymm10, %ymm3, %ymm4 vpblendd $12, %ymm3, %ymm5, %ymm11 vpxor %ymm5, %ymm1, %ymm1 vpblendd $48, %ymm5, %ymm4, %ymm4 vpblendd $48, %ymm7, %ymm11, %ymm11 vpxor %ymm3, %ymm2, %ymm2 vpblendd $-64, %ymm7, %ymm4, %ymm4 vpblendd $-64, %ymm10, %ymm11, %ymm11 vpandn %ymm11, %ymm4, %ymm4 vpxor %ymm9, %ymm4, %ymm12 vpermq $30, %ymm8, %ymm4 vpblendd $48, %ymm6, %ymm4, %ymm4 vpermq $57, %ymm8, %ymm11 vpblendd $-64, %ymm6, %ymm11, %ymm11 vpandn %ymm4, %ymm11, %ymm11 vpblendd $12, %ymm3, %ymm7, %ymm4 vpblendd $12, %ymm7, %ymm9, %ymm13 vpblendd $48, %ymm9, %ymm4, %ymm4 vpblendd $48, %ymm5, %ymm13, %ymm13 vpblendd $-64, %ymm5, %ymm4, %ymm4 vpblendd $-64, %ymm3, %ymm13, %ymm13 vpandn %ymm13, %ymm4, %ymm4 vpxor %ymm10, %ymm4, %ymm4 vpermq $0, %ymm0, %ymm13 vpermq $27, %ymm1, %ymm0 vpermq $-115, %ymm2, %ymm1 vpermq $114, %ymm12, %ymm2 vpblendd $12, %ymm5, %ymm9, %ymm12 vpblendd $12, %ymm9, %ymm3, %ymm9 vpblendd $48, %ymm3, %ymm12, %ymm3 vpblendd $48, %ymm10, %ymm9, %ymm9 vpblendd $-64, %ymm10, %ymm3, %ymm3 vpblendd $-64, %ymm5, %ymm9, %ymm5 vpandn %ymm5, %ymm3, %ymm5 vpxor %ymm13, %ymm6, %ymm6 vpxor %ymm8, %ymm11, %ymm3 vpxor %ymm7, %ymm5, %ymm5 vpxor (%rcx,%rdx), %ymm6, %ymm6 addq $32, %rdx decq %r11 jne L_keccak1600_avx2$6 vmovdqu %ymm6, (%rsp) vmovdqu %ymm3, 32(%rsp) vmovdqu %ymm4, 64(%rsp) vmovdqu %ymm0, 96(%rsp) vmovdqu %ymm5, 128(%rsp) vmovdqu %ymm1, 160(%rsp) vmovdqu %ymm2, 192(%rsp) movq %r9, %rcx shrq $3, %rcx movq $0, %rdx jmp L_keccak1600_avx2$4 L_keccak1600_avx2$5: movq (%rax,%rdx,8), %rsi movq (%rsp,%rsi,8), %rsi movq %rsi, (%rdi,%rdx,8) incq %rdx L_keccak1600_avx2$4: cmpq %rcx, %rdx jb L_keccak1600_avx2$5 movq (%rax,%rdx,8), %rax shlq $3, %rdx shlq $3, %rax jmp L_keccak1600_avx2$2 L_keccak1600_avx2$3: movb (%rsp,%rax), %cl movb %cl, (%rdi,%rdx) incq %rdx incq %rax L_keccak1600_avx2$2: cmpq %r9, %rdx jb L_keccak1600_avx2$3 jmp *%r10 .data .p2align 5 _glob_data: glob_data: .byte 61 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 46 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 28 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 23 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 63 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 36 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 37 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 19 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 58 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 54 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 56 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 62 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 49 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 39 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 44 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 43 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 50 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 3 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 18 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 36 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 41 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 62 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 28 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 27 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 45 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 6 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 56 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 39 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 61 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 55 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 2 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 15 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 44 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 43 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 14 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 4 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 5 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 6 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 7 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 24 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 13 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 18 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 23 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 16 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 25 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 22 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 15 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 11 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 12 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 21 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 26 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 19 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 20 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 17 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 14 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 27 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0
verdict-x509/verdict
6,042
deps/libcrux/sys/libjade/jazz/poly1305_ref.s
.att_syntax .text .p2align 5 .globl _jade_onetimeauth_poly1305_amd64_ref_verify .globl jade_onetimeauth_poly1305_amd64_ref_verify .globl _jade_onetimeauth_poly1305_amd64_ref .globl jade_onetimeauth_poly1305_amd64_ref _jade_onetimeauth_poly1305_amd64_ref_verify: jade_onetimeauth_poly1305_amd64_ref_verify: movq %rsp, %rax leaq -56(%rsp), %rsp andq $-8, %rsp movq %rax, 48(%rsp) movq %rbx, (%rsp) movq %rbp, 8(%rsp) movq %r12, 16(%rsp) movq %r13, 24(%rsp) movq %r14, 32(%rsp) movq %r15, 40(%rsp) movq %rdx, %r11 movq %rcx, %r8 movq $0, %r15 movq $0, %rbp movq $0, %r12 movq (%r8), %r9 movq 8(%r8), %r14 movq $1152921487695413247, %rax andq %rax, %r9 movq $1152921487695413244, %rax andq %rax, %r14 movq %r14, %r13 shrq $2, %r13 addq %r14, %r13 addq $16, %r8 jmp Ljade_onetimeauth_poly1305_amd64_ref_verify$2 Ljade_onetimeauth_poly1305_amd64_ref_verify$3: addq (%rsi), %r15 adcq 8(%rsi), %rbp adcq $1, %r12 movq %r13, %rcx imulq %r12, %rcx imulq %r9, %r12 movq %r9, %rax mulq %r15 movq %rax, %rbx movq %rdx, %r10 movq %r9, %rax mulq %rbp addq %rax, %r10 adcq %rdx, %r12 movq %r13, %rax mulq %rbp movq %rdx, %rbp addq %rcx, %rbp movq %rax, %rcx movq %r14, %rax mulq %r15 addq %rcx, %rbx adcq %rax, %r10 adcq %rdx, %r12 movq $-4, %r15 movq %r12, %rax shrq $2, %rax andq %r12, %r15 addq %rax, %r15 andq $3, %r12 addq %rbx, %r15 adcq %r10, %rbp adcq $0, %r12 addq $16, %rsi addq $-16, %r11 Ljade_onetimeauth_poly1305_amd64_ref_verify$2: cmpq $16, %r11 jnb Ljade_onetimeauth_poly1305_amd64_ref_verify$3 cmpq $0, %r11 jbe Ljade_onetimeauth_poly1305_amd64_ref_verify$1 xorq %rcx, %rcx movq %r11, %rax andq $7, %rax shlq $3, %rax shrq $3, %r11 movq %r11, %rdx xorq $1, %rdx movq %r11, %r10 addq $-1, %r10 movq %rax, %rbx andq %r10, %rbx xorq %rbx, %rcx xorq %rbx, %rax shlq %cl, %rdx movq %rax, %rcx shlq %cl, %r11 movq %rdx, %rax movq %r11, %rcx subq $1, %rax sbbq $0, %rcx movq (%rsi), %r10 andq %rax, %r10 orq %rdx, %r10 movq 8(%rsi), %rax andq %rcx, %rax orq %r11, %rax addq %r10, %r15 adcq %rax, %rbp adcq $0, %r12 movq %r13, %rsi imulq %r12, %rsi imulq %r9, %r12 movq %r9, %rax mulq %r15 movq %rax, %rcx movq %rdx, %r10 movq %r9, %rax mulq %rbp addq %rax, %r10 adcq %rdx, %r12 movq %r13, %rax mulq %rbp movq %rdx, %rbp addq %rsi, %rbp movq %rax, %rsi movq %r14, %rax mulq %r15 addq %rsi, %rcx adcq %rax, %r10 adcq %rdx, %r12 movq $-4, %r15 movq %r12, %rax shrq $2, %rax andq %r12, %r15 addq %rax, %r15 andq $3, %r12 addq %rcx, %r15 adcq %r10, %rbp adcq $0, %r12 Ljade_onetimeauth_poly1305_amd64_ref_verify$1: movq %r15, %rax movq %rbp, %rcx addq $5, %rax adcq $0, %rcx adcq $0, %r12 shrq $2, %r12 negq %r12 xorq %r15, %rax xorq %rbp, %rcx andq %r12, %rax andq %r12, %rcx xorq %r15, %rax xorq %rbp, %rcx movq (%r8), %rdx movq 8(%r8), %rsi addq %rdx, %rax adcq %rsi, %rcx movq %rax, %rdx xorq (%rdi), %rdx xorq 8(%rdi), %rcx orq %rcx, %rdx xorq %rax, %rax subq $1, %rdx adcq $0, %rax addq $-1, %rax movq (%rsp), %rbx movq 8(%rsp), %rbp movq 16(%rsp), %r12 movq 24(%rsp), %r13 movq 32(%rsp), %r14 movq 40(%rsp), %r15 movq 48(%rsp), %rsp ret _jade_onetimeauth_poly1305_amd64_ref: jade_onetimeauth_poly1305_amd64_ref: movq %rsp, %rax leaq -56(%rsp), %rsp andq $-8, %rsp movq %rax, 48(%rsp) movq %rbx, (%rsp) movq %rbp, 8(%rsp) movq %r12, 16(%rsp) movq %r13, 24(%rsp) movq %r14, 32(%rsp) movq %r15, 40(%rsp) movq %rdx, %rbx movq %rcx, %r9 movq $0, %r15 movq $0, %r8 movq $0, %r14 movq (%r9), %r12 movq 8(%r9), %r13 movq $1152921487695413247, %rax andq %rax, %r12 movq $1152921487695413244, %rax andq %rax, %r13 movq %r13, %rbp shrq $2, %rbp addq %r13, %rbp addq $16, %r9 jmp Ljade_onetimeauth_poly1305_amd64_ref$2 Ljade_onetimeauth_poly1305_amd64_ref$3: addq (%rsi), %r15 adcq 8(%rsi), %r8 adcq $1, %r14 movq %rbp, %rcx imulq %r14, %rcx imulq %r12, %r14 movq %r12, %rax mulq %r15 movq %rax, %r11 movq %rdx, %r10 movq %r12, %rax mulq %r8 addq %rax, %r10 adcq %rdx, %r14 movq %rbp, %rax mulq %r8 movq %rdx, %r8 addq %rcx, %r8 movq %rax, %rcx movq %r13, %rax mulq %r15 addq %rcx, %r11 adcq %rax, %r10 adcq %rdx, %r14 movq $-4, %r15 movq %r14, %rax shrq $2, %rax andq %r14, %r15 addq %rax, %r15 andq $3, %r14 addq %r11, %r15 adcq %r10, %r8 adcq $0, %r14 addq $16, %rsi addq $-16, %rbx Ljade_onetimeauth_poly1305_amd64_ref$2: cmpq $16, %rbx jnb Ljade_onetimeauth_poly1305_amd64_ref$3 cmpq $0, %rbx jbe Ljade_onetimeauth_poly1305_amd64_ref$1 xorq %rcx, %rcx movq %rbx, %rax andq $7, %rax shlq $3, %rax shrq $3, %rbx movq %rbx, %rdx xorq $1, %rdx movq %rbx, %r10 addq $-1, %r10 movq %rax, %r11 andq %r10, %r11 xorq %r11, %rcx xorq %r11, %rax shlq %cl, %rdx movq %rax, %rcx shlq %cl, %rbx movq %rdx, %rax movq %rbx, %rcx subq $1, %rax sbbq $0, %rcx movq (%rsi), %r10 andq %rax, %r10 orq %rdx, %r10 movq 8(%rsi), %rax andq %rcx, %rax orq %rbx, %rax addq %r10, %r15 adcq %rax, %r8 adcq $0, %r14 movq %rbp, %rsi imulq %r14, %rsi imulq %r12, %r14 movq %r12, %rax mulq %r15 movq %rax, %rcx movq %rdx, %r10 movq %r12, %rax mulq %r8 addq %rax, %r10 adcq %rdx, %r14 movq %rbp, %rax mulq %r8 movq %rdx, %r8 addq %rsi, %r8 movq %rax, %rsi movq %r13, %rax mulq %r15 addq %rsi, %rcx adcq %rax, %r10 adcq %rdx, %r14 movq $-4, %r15 movq %r14, %rax shrq $2, %rax andq %r14, %r15 addq %rax, %r15 andq $3, %r14 addq %rcx, %r15 adcq %r10, %r8 adcq $0, %r14 Ljade_onetimeauth_poly1305_amd64_ref$1: movq %r15, %rax movq %r8, %rcx addq $5, %rax adcq $0, %rcx adcq $0, %r14 shrq $2, %r14 negq %r14 xorq %r15, %rax xorq %r8, %rcx andq %r14, %rax andq %r14, %rcx xorq %r15, %rax xorq %r8, %rcx movq (%r9), %rdx movq 8(%r9), %rsi addq %rdx, %rax adcq %rsi, %rcx movq %rax, (%rdi) movq %rcx, 8(%rdi) xorq %rax, %rax movq (%rsp), %rbx movq 8(%rsp), %rbp movq 16(%rsp), %r12 movq 24(%rsp), %r13 movq 32(%rsp), %r14 movq 40(%rsp), %r15 movq 48(%rsp), %rsp ret
verdict-x509/verdict
31,350
deps/libcrux/sys/libjade/jazz/sha3_256_ref.s
.att_syntax .text .p2align 5 .globl _jade_hash_sha3_256_amd64_ref .globl jade_hash_sha3_256_amd64_ref _jade_hash_sha3_256_amd64_ref: jade_hash_sha3_256_amd64_ref: movq %rsp, %rax leaq -48(%rsp), %rsp andq $-8, %rsp movq %rax, 40(%rsp) movq %rbx, (%rsp) movq %rbp, 8(%rsp) movq %r12, 16(%rsp) movq %r13, 24(%rsp) movq %r14, 32(%rsp) movq $32, %rcx movb $6, %r8b movq $136, %rax leaq -448(%rsp), %rsp call L_keccak1600_ref$1 Ljade_hash_sha3_256_amd64_ref$1: leaq 448(%rsp), %rsp xorq %rax, %rax movq (%rsp), %rbx movq 8(%rsp), %rbp movq 16(%rsp), %r12 movq 24(%rsp), %r13 movq 32(%rsp), %r14 movq 40(%rsp), %rsp ret L_keccak1600_ref$1: movq %rdi, 8(%rsp) movq %rcx, 16(%rsp) movb %r8b, 448(%rsp) xorq %rcx, %rcx movq %rcx, 48(%rsp) movq %rcx, 56(%rsp) movq %rcx, 64(%rsp) movq %rcx, 72(%rsp) movq %rcx, 80(%rsp) movq %rcx, 88(%rsp) movq %rcx, 96(%rsp) movq %rcx, 104(%rsp) movq %rcx, 112(%rsp) movq %rcx, 120(%rsp) movq %rcx, 128(%rsp) movq %rcx, 136(%rsp) movq %rcx, 144(%rsp) movq %rcx, 152(%rsp) movq %rcx, 160(%rsp) movq %rcx, 168(%rsp) movq %rcx, 176(%rsp) movq %rcx, 184(%rsp) movq %rcx, 192(%rsp) movq %rcx, 200(%rsp) movq %rcx, 208(%rsp) movq %rcx, 216(%rsp) movq %rcx, 224(%rsp) movq %rcx, 232(%rsp) movq %rcx, 240(%rsp) jmp L_keccak1600_ref$16 L_keccak1600_ref$17: movq %rax, %rcx shrq $3, %rcx movq $0, %rdi jmp L_keccak1600_ref$19 L_keccak1600_ref$20: movq (%rsi,%rdi,8), %r8 xorq %r8, 48(%rsp,%rdi,8) incq %rdi L_keccak1600_ref$19: cmpq %rcx, %rdi jb L_keccak1600_ref$20 addq %rax, %rsi subq %rax, %rdx movq %rsi, 24(%rsp) movq %rdx, 32(%rsp) movq %rax, 40(%rsp) leaq glob_data + 0(%rip), %rax movq $0, %rcx L_keccak1600_ref$18: movq (%rax,%rcx,8), %r10 movq 48(%rsp), %r9 movq 56(%rsp), %r8 movq 64(%rsp), %r11 movq 72(%rsp), %rbx movq 80(%rsp), %rbp xorq 88(%rsp), %r9 xorq 96(%rsp), %r8 xorq 104(%rsp), %r11 xorq 112(%rsp), %rbx xorq 120(%rsp), %rbp xorq 128(%rsp), %r9 xorq 136(%rsp), %r8 xorq 144(%rsp), %r11 xorq 152(%rsp), %rbx xorq 160(%rsp), %rbp xorq 168(%rsp), %r9 xorq 176(%rsp), %r8 xorq 184(%rsp), %r11 xorq 192(%rsp), %rbx xorq 200(%rsp), %rbp xorq 208(%rsp), %r9 xorq 216(%rsp), %r8 xorq 224(%rsp), %r11 xorq 232(%rsp), %rbx xorq 240(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 48(%rsp), %r11 xorq %rdx, %r11 movq 96(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 144(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 192(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 240(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 248(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 256(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 264(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 272(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 280(%rsp) movq 72(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 120(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 128(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 176(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 224(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 288(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 296(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 304(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 312(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 320(%rsp) movq 56(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 104(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 152(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 200(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 208(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 328(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 336(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 344(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 352(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 360(%rsp) movq 80(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 88(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 136(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 184(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 232(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 368(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 376(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 384(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 392(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 400(%rsp) movq 64(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 112(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 160(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 168(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 216(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 408(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 416(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 424(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 432(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 440(%rsp) movq 8(%rax,%rcx,8), %r10 movq 248(%rsp), %r9 movq 256(%rsp), %r8 movq 264(%rsp), %r11 movq 272(%rsp), %rbx movq 280(%rsp), %rbp xorq 288(%rsp), %r9 xorq 296(%rsp), %r8 xorq 304(%rsp), %r11 xorq 312(%rsp), %rbx xorq 320(%rsp), %rbp xorq 328(%rsp), %r9 xorq 336(%rsp), %r8 xorq 344(%rsp), %r11 xorq 352(%rsp), %rbx xorq 360(%rsp), %rbp xorq 368(%rsp), %r9 xorq 376(%rsp), %r8 xorq 384(%rsp), %r11 xorq 392(%rsp), %rbx xorq 400(%rsp), %rbp xorq 408(%rsp), %r9 xorq 416(%rsp), %r8 xorq 424(%rsp), %r11 xorq 432(%rsp), %rbx xorq 440(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 248(%rsp), %r11 xorq %rdx, %r11 movq 296(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 344(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 392(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 440(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 48(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 56(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 64(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 72(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 80(%rsp) movq 272(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 320(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 328(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 376(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 424(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 88(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 96(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 104(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 112(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 120(%rsp) movq 256(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 304(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 352(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 400(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 408(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 128(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 136(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 144(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 152(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 160(%rsp) movq 280(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 288(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 336(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 384(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 432(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 168(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 176(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 184(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 192(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 200(%rsp) movq 264(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 312(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 360(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 368(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 416(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 208(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 216(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 224(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 232(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 240(%rsp) addq $2, %rcx cmpq $23, %rcx jb L_keccak1600_ref$18 movq 24(%rsp), %rsi movq 32(%rsp), %rdx movq 40(%rsp), %rax L_keccak1600_ref$16: cmpq %rax, %rdx jnb L_keccak1600_ref$17 movb 448(%rsp), %cl movq %rdx, %rdi shrq $3, %rdi movq $0, %r8 jmp L_keccak1600_ref$14 L_keccak1600_ref$15: movq (%rsi,%r8,8), %r9 xorq %r9, 48(%rsp,%r8,8) incq %r8 L_keccak1600_ref$14: cmpq %rdi, %r8 jb L_keccak1600_ref$15 shlq $3, %r8 jmp L_keccak1600_ref$12 L_keccak1600_ref$13: movb (%rsi,%r8), %dil xorb %dil, 48(%rsp,%r8) incq %r8 L_keccak1600_ref$12: cmpq %rdx, %r8 jb L_keccak1600_ref$13 xorb %cl, 48(%rsp,%r8) movq %rax, %rcx addq $-1, %rcx xorb $-128, 48(%rsp,%rcx) movq 16(%rsp), %rdx jmp L_keccak1600_ref$7 L_keccak1600_ref$8: movq %rdx, 16(%rsp) movq %rax, 40(%rsp) leaq glob_data + 0(%rip), %rax movq $0, %rcx L_keccak1600_ref$11: movq (%rax,%rcx,8), %r10 movq 48(%rsp), %r9 movq 56(%rsp), %r8 movq 64(%rsp), %r11 movq 72(%rsp), %rbx movq 80(%rsp), %rbp xorq 88(%rsp), %r9 xorq 96(%rsp), %r8 xorq 104(%rsp), %r11 xorq 112(%rsp), %rbx xorq 120(%rsp), %rbp xorq 128(%rsp), %r9 xorq 136(%rsp), %r8 xorq 144(%rsp), %r11 xorq 152(%rsp), %rbx xorq 160(%rsp), %rbp xorq 168(%rsp), %r9 xorq 176(%rsp), %r8 xorq 184(%rsp), %r11 xorq 192(%rsp), %rbx xorq 200(%rsp), %rbp xorq 208(%rsp), %r9 xorq 216(%rsp), %r8 xorq 224(%rsp), %r11 xorq 232(%rsp), %rbx xorq 240(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 48(%rsp), %r11 xorq %rdx, %r11 movq 96(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 144(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 192(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 240(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 248(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 256(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 264(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 272(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 280(%rsp) movq 72(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 120(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 128(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 176(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 224(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 288(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 296(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 304(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 312(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 320(%rsp) movq 56(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 104(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 152(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 200(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 208(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 328(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 336(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 344(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 352(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 360(%rsp) movq 80(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 88(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 136(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 184(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 232(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 368(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 376(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 384(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 392(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 400(%rsp) movq 64(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 112(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 160(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 168(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 216(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 408(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 416(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 424(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 432(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 440(%rsp) movq 8(%rax,%rcx,8), %r10 movq 248(%rsp), %r9 movq 256(%rsp), %r8 movq 264(%rsp), %r11 movq 272(%rsp), %rbx movq 280(%rsp), %rbp xorq 288(%rsp), %r9 xorq 296(%rsp), %r8 xorq 304(%rsp), %r11 xorq 312(%rsp), %rbx xorq 320(%rsp), %rbp xorq 328(%rsp), %r9 xorq 336(%rsp), %r8 xorq 344(%rsp), %r11 xorq 352(%rsp), %rbx xorq 360(%rsp), %rbp xorq 368(%rsp), %r9 xorq 376(%rsp), %r8 xorq 384(%rsp), %r11 xorq 392(%rsp), %rbx xorq 400(%rsp), %rbp xorq 408(%rsp), %r9 xorq 416(%rsp), %r8 xorq 424(%rsp), %r11 xorq 432(%rsp), %rbx xorq 440(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 248(%rsp), %r11 xorq %rdx, %r11 movq 296(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 344(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 392(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 440(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 48(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 56(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 64(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 72(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 80(%rsp) movq 272(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 320(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 328(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 376(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 424(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 88(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 96(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 104(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 112(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 120(%rsp) movq 256(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 304(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 352(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 400(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 408(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 128(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 136(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 144(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 152(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 160(%rsp) movq 280(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 288(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 336(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 384(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 432(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 168(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 176(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 184(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 192(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 200(%rsp) movq 264(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 312(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 360(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 368(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 416(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 208(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 216(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 224(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 232(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 240(%rsp) addq $2, %rcx cmpq $23, %rcx jb L_keccak1600_ref$11 movq 8(%rsp), %rcx movq 16(%rsp), %rdx movq 40(%rsp), %rax movq %rax, %rsi shrq $3, %rsi movq $0, %rdi jmp L_keccak1600_ref$9 L_keccak1600_ref$10: movq 48(%rsp,%rdi,8), %r8 movq %r8, (%rcx,%rdi,8) incq %rdi L_keccak1600_ref$9: cmpq %rsi, %rdi jb L_keccak1600_ref$10 addq %rax, %rcx subq %rax, %rdx movq %rcx, 8(%rsp) L_keccak1600_ref$7: cmpq %rax, %rdx jnbe L_keccak1600_ref$8 movq %rdx, 40(%rsp) leaq glob_data + 0(%rip), %rax movq $0, %rcx L_keccak1600_ref$6: movq (%rax,%rcx,8), %r10 movq 48(%rsp), %r9 movq 56(%rsp), %r8 movq 64(%rsp), %r11 movq 72(%rsp), %rbx movq 80(%rsp), %rbp xorq 88(%rsp), %r9 xorq 96(%rsp), %r8 xorq 104(%rsp), %r11 xorq 112(%rsp), %rbx xorq 120(%rsp), %rbp xorq 128(%rsp), %r9 xorq 136(%rsp), %r8 xorq 144(%rsp), %r11 xorq 152(%rsp), %rbx xorq 160(%rsp), %rbp xorq 168(%rsp), %r9 xorq 176(%rsp), %r8 xorq 184(%rsp), %r11 xorq 192(%rsp), %rbx xorq 200(%rsp), %rbp xorq 208(%rsp), %r9 xorq 216(%rsp), %r8 xorq 224(%rsp), %r11 xorq 232(%rsp), %rbx xorq 240(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 48(%rsp), %r11 xorq %rdx, %r11 movq 96(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 144(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 192(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 240(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 248(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 256(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 264(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 272(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 280(%rsp) movq 72(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 120(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 128(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 176(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 224(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 288(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 296(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 304(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 312(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 320(%rsp) movq 56(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 104(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 152(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 200(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 208(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 328(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 336(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 344(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 352(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 360(%rsp) movq 80(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 88(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 136(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 184(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 232(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 368(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 376(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 384(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 392(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 400(%rsp) movq 64(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 112(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 160(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 168(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 216(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 408(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 416(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 424(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 432(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 440(%rsp) movq 8(%rax,%rcx,8), %r10 movq 248(%rsp), %r9 movq 256(%rsp), %r8 movq 264(%rsp), %r11 movq 272(%rsp), %rbx movq 280(%rsp), %rbp xorq 288(%rsp), %r9 xorq 296(%rsp), %r8 xorq 304(%rsp), %r11 xorq 312(%rsp), %rbx xorq 320(%rsp), %rbp xorq 328(%rsp), %r9 xorq 336(%rsp), %r8 xorq 344(%rsp), %r11 xorq 352(%rsp), %rbx xorq 360(%rsp), %rbp xorq 368(%rsp), %r9 xorq 376(%rsp), %r8 xorq 384(%rsp), %r11 xorq 392(%rsp), %rbx xorq 400(%rsp), %rbp xorq 408(%rsp), %r9 xorq 416(%rsp), %r8 xorq 424(%rsp), %r11 xorq 432(%rsp), %rbx xorq 440(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 248(%rsp), %r11 xorq %rdx, %r11 movq 296(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 344(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 392(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 440(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 48(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 56(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 64(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 72(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 80(%rsp) movq 272(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 320(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 328(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 376(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 424(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 88(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 96(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 104(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 112(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 120(%rsp) movq 256(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 304(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 352(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 400(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 408(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 128(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 136(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 144(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 152(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 160(%rsp) movq 280(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 288(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 336(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 384(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 432(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 168(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 176(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 184(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 192(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 200(%rsp) movq 264(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 312(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 360(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 368(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 416(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 208(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 216(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 224(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 232(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 240(%rsp) addq $2, %rcx cmpq $23, %rcx jb L_keccak1600_ref$6 movq 8(%rsp), %rax movq 40(%rsp), %rcx movq %rcx, %rdx shrq $3, %rdx movq $0, %rsi jmp L_keccak1600_ref$4 L_keccak1600_ref$5: movq 48(%rsp,%rsi,8), %rdi movq %rdi, (%rax,%rsi,8) incq %rsi L_keccak1600_ref$4: cmpq %rdx, %rsi jb L_keccak1600_ref$5 shlq $3, %rsi jmp L_keccak1600_ref$2 L_keccak1600_ref$3: movb 48(%rsp,%rsi), %dl movb %dl, (%rax,%rsi) incq %rsi L_keccak1600_ref$2: cmpq %rcx, %rsi jb L_keccak1600_ref$3 ret .data .p2align 5 _glob_data: glob_data: .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128
verdict-x509/verdict
85,265
deps/libcrux/sys/libjade/jazz/x25519_ref.s
.att_syntax .text .p2align 5 .globl _jade_scalarmult_curve25519_amd64_ref5_base .globl jade_scalarmult_curve25519_amd64_ref5_base .globl _jade_scalarmult_curve25519_amd64_ref5 .globl jade_scalarmult_curve25519_amd64_ref5 _jade_scalarmult_curve25519_amd64_ref5_base: jade_scalarmult_curve25519_amd64_ref5_base: movq %rsp, %rax leaq -480(%rsp), %rsp andq $-8, %rsp movq %rax, 472(%rsp) movq %rbx, 432(%rsp) movq %rbp, 440(%rsp) movq %r12, 448(%rsp) movq %r13, 456(%rsp) movq %r14, 464(%rsp) movq %rdi, (%rsp) movq (%rsi), %rax movq %rax, 40(%rsp) movq 8(%rsi), %rax movq %rax, 48(%rsp) movq 16(%rsi), %rax movq %rax, 56(%rsp) movq 24(%rsi), %rax movq %rax, 64(%rsp) andb $-8, 40(%rsp) andb $127, 71(%rsp) orb $64, 71(%rsp) movq $9, %rcx movq $0, %r8 movq $0, %r9 movq $0, %r10 movq $0, %r11 xorq %rbx, %rbx movq $1, 72(%rsp) movq $0, %rbp movq %rcx, 112(%rsp) movq %r8, 120(%rsp) movq %r9, 128(%rsp) movq %r10, 136(%rsp) movq %r11, 144(%rsp) movq $1, 152(%rsp) movq %rbx, 80(%rsp) movq %rbx, %rax movq %rbx, 160(%rsp) movq %rbx, 88(%rsp) movq %rbx, %rdx movq %rbx, 168(%rsp) movq %rbx, 96(%rsp) movq %rbx, %rsi movq %rbx, 176(%rsp) movq %rbx, 104(%rsp) movq %rbx, %rdi movq %rbx, 184(%rsp) movq %rcx, 192(%rsp) movq %r8, 200(%rsp) movq %r9, 208(%rsp) movq %r10, 216(%rsp) movq %r11, 224(%rsp) movq $255, %rcx movq $0, 8(%rsp) Ljade_scalarmult_curve25519_amd64_ref5_base$28: addq $-1, %rcx movq %rcx, 16(%rsp) movq %rcx, %r8 shrq $3, %r8 movzbq 40(%rsp,%r8), %r8 andq $7, %rcx shrq %cl, %r8 andq $1, %r8 movq 8(%rsp), %r9 xorq %r8, %r9 xorq %rcx, %rcx subq %r9, %rcx movq %rbp, %r11 movq %rax, %rbx movq %rdx, %r12 movq %rsi, %r9 movq %rdi, %r10 xorq 152(%rsp), %r11 andq %rcx, %r11 xorq 160(%rsp), %rbx andq %rcx, %rbx xorq 168(%rsp), %r12 andq %rcx, %r12 xorq 176(%rsp), %r9 andq %rcx, %r9 xorq 184(%rsp), %r10 andq %rcx, %r10 xorq %r11, %rbp movq 152(%rsp), %r13 xorq %r11, %r13 movq %r13, 152(%rsp) xorq %rbx, %rax movq 160(%rsp), %r11 xorq %rbx, %r11 movq %r11, 160(%rsp) xorq %r12, %rdx movq 168(%rsp), %r11 xorq %r12, %r11 movq %r11, 168(%rsp) xorq %r9, %rsi movq 176(%rsp), %r11 xorq %r9, %r11 movq %r11, 176(%rsp) xorq %r10, %rdi movq 184(%rsp), %r9 xorq %r10, %r9 movq %r9, 184(%rsp) movq 112(%rsp), %r12 movq 120(%rsp), %r9 movq 128(%rsp), %r10 movq 136(%rsp), %r11 movq 144(%rsp), %rbx movq 72(%rsp), %r13 movq %r12, %r14 xorq %r13, %r14 andq %rcx, %r14 xorq %r14, %r13 xorq %r14, %r12 movq %r13, 72(%rsp) movq %r12, 112(%rsp) movq 80(%rsp), %r12 movq %r9, %r13 xorq %r12, %r13 andq %rcx, %r13 xorq %r13, %r12 xorq %r13, %r9 movq %r12, 80(%rsp) movq %r9, 120(%rsp) movq 88(%rsp), %r9 movq %r10, %r12 xorq %r9, %r12 andq %rcx, %r12 xorq %r12, %r9 xorq %r12, %r10 movq %r9, 88(%rsp) movq %r10, 128(%rsp) movq 96(%rsp), %r9 movq %r11, %r10 xorq %r9, %r10 andq %rcx, %r10 xorq %r10, %r9 xorq %r10, %r11 movq %r9, 96(%rsp) movq %r11, 136(%rsp) movq 104(%rsp), %r9 movq %rbx, %r10 xorq %r9, %r10 andq %rcx, %r10 xorq %r10, %r9 xorq %r10, %rbx movq %r9, 104(%rsp) movq %rbx, 144(%rsp) movq %r8, 8(%rsp) movq $4503599627370458, %rcx movq $4503599627370494, %r8 movq 72(%rsp), %r9 movq 80(%rsp), %r10 movq 88(%rsp), %r11 movq 96(%rsp), %rbx movq 104(%rsp), %r12 addq %rcx, %r9 addq %r8, %r10 addq %r8, %r11 addq %r8, %rbx addq %r8, %r12 subq %rbp, %r9 subq %rax, %r10 subq %rdx, %r11 subq %rsi, %rbx subq %rdi, %r12 movq %r9, 232(%rsp) movq %r10, 240(%rsp) movq %r11, 248(%rsp) movq %rbx, 256(%rsp) movq %r12, 264(%rsp) addq 72(%rsp), %rbp addq 80(%rsp), %rax addq 88(%rsp), %rdx addq 96(%rsp), %rsi addq 104(%rsp), %rdi movq %rbp, 272(%rsp) movq %rax, 280(%rsp) movq %rdx, 288(%rsp) movq %rsi, 296(%rsp) movq %rdi, 304(%rsp) movq 112(%rsp), %rax movq 120(%rsp), %rcx movq 128(%rsp), %rdx movq 136(%rsp), %rsi movq 144(%rsp), %rdi movq $4503599627370458, %r8 movq $4503599627370494, %r9 addq %r8, %rax addq %r9, %rcx addq %r9, %rdx addq %r9, %rsi addq %r9, %rdi subq 152(%rsp), %rax subq 160(%rsp), %rcx subq 168(%rsp), %rdx subq 176(%rsp), %rsi subq 184(%rsp), %rdi movq %rax, 312(%rsp) movq %rcx, 320(%rsp) movq %rdx, 328(%rsp) movq %rsi, 336(%rsp) movq %rdi, 344(%rsp) movq 112(%rsp), %rax movq 120(%rsp), %rcx movq 128(%rsp), %rdx movq 136(%rsp), %rsi movq 144(%rsp), %rdi addq 152(%rsp), %rax addq 160(%rsp), %rcx addq 168(%rsp), %rdx addq 176(%rsp), %rsi addq 184(%rsp), %rdi movq %rax, 352(%rsp) movq %rcx, 360(%rsp) movq %rdx, 368(%rsp) movq %rsi, 376(%rsp) movq %rdi, 384(%rsp) movq 296(%rsp), %rax imulq $19, %rax, %rax movq %rax, 24(%rsp) mulq 328(%rsp) movq %rax, %r12 movq %rdx, %rdi movq 304(%rsp), %rax imulq $19, %rax, %rax movq %rax, 32(%rsp) mulq 320(%rsp) addq %rax, %r12 adcq %rdx, %rdi movq 272(%rsp), %rax mulq 312(%rsp) addq %rax, %r12 adcq %rdx, %rdi movq 272(%rsp), %rax mulq 320(%rsp) movq %rax, %r10 movq %rdx, %rbx movq 272(%rsp), %rax mulq 328(%rsp) movq %rax, %r8 movq %rdx, %r9 movq 272(%rsp), %rax mulq 336(%rsp) movq %rax, %rcx movq %rdx, %r11 movq 272(%rsp), %rax mulq 344(%rsp) movq %rax, %rbp movq %rdx, %rsi movq 280(%rsp), %rax mulq 312(%rsp) addq %rax, %r10 adcq %rdx, %rbx movq 280(%rsp), %rax mulq 320(%rsp) addq %rax, %r8 adcq %rdx, %r9 movq 280(%rsp), %rax mulq 328(%rsp) addq %rax, %rcx adcq %rdx, %r11 movq 280(%rsp), %rax mulq 336(%rsp) addq %rax, %rbp adcq %rdx, %rsi movq 280(%rsp), %rax imulq $19, %rax, %rax mulq 344(%rsp) addq %rax, %r12 adcq %rdx, %rdi movq 288(%rsp), %rax mulq 312(%rsp) addq %rax, %r8 adcq %rdx, %r9 movq 288(%rsp), %rax mulq 320(%rsp) addq %rax, %rcx adcq %rdx, %r11 movq 288(%rsp), %rax mulq 328(%rsp) addq %rax, %rbp adcq %rdx, %rsi movq 288(%rsp), %rax imulq $19, %rax, %rax mulq 336(%rsp) addq %rax, %r12 adcq %rdx, %rdi movq 288(%rsp), %rax imulq $19, %rax, %rax mulq 344(%rsp) addq %rax, %r10 adcq %rdx, %rbx movq 296(%rsp), %rax mulq 312(%rsp) addq %rax, %rcx adcq %rdx, %r11 movq 296(%rsp), %rax mulq 320(%rsp) addq %rax, %rbp adcq %rdx, %rsi movq 24(%rsp), %rax mulq 336(%rsp) addq %rax, %r10 adcq %rdx, %rbx movq 24(%rsp), %rax mulq 344(%rsp) addq %rax, %r8 adcq %rdx, %r9 movq 304(%rsp), %rax mulq 312(%rsp) addq %rax, %rbp adcq %rdx, %rsi movq 32(%rsp), %rax mulq 328(%rsp) addq %rax, %r10 adcq %rdx, %rbx movq 32(%rsp), %rax mulq 336(%rsp) addq %rax, %r8 adcq %rdx, %r9 movq 32(%rsp), %rax mulq 344(%rsp) addq %rax, %rcx adcq %rdx, %r11 movq $2251799813685247, %rax shldq $13, %r12, %rdi andq %rax, %r12 shldq $13, %r10, %rbx andq %rax, %r10 addq %rdi, %r10 shldq $13, %r8, %r9 andq %rax, %r8 addq %rbx, %r8 shldq $13, %rcx, %r11 andq %rax, %rcx addq %r9, %rcx shldq $13, %rbp, %rsi andq %rax, %rbp addq %r11, %rbp imulq $19, %rsi, %rdx addq %rdx, %r12 movq %r12, %rdx shrq $51, %rdx addq %r10, %rdx movq %rdx, %rsi shrq $51, %rdx andq %rax, %r12 addq %r8, %rdx movq %rdx, %rdi shrq $51, %rdx andq %rax, %rsi addq %rcx, %rdx movq %rdx, %rcx shrq $51, %rdx andq %rax, %rdi addq %rbp, %rdx movq %rdx, %r8 shrq $51, %rdx andq %rax, %rcx imulq $19, %rdx, %rdx addq %rdx, %r12 andq %rax, %r8 movq %r12, 312(%rsp) movq %rsi, 320(%rsp) movq %rdi, 328(%rsp) movq %rcx, 336(%rsp) movq %r8, 344(%rsp) movq 376(%rsp), %rax imulq $19, %rax, %rax movq %rax, 32(%rsp) mulq 248(%rsp) movq %rax, %rsi movq %rdx, %rbx movq 384(%rsp), %rax imulq $19, %rax, %rax movq %rax, 24(%rsp) mulq 240(%rsp) addq %rax, %rsi adcq %rdx, %rbx movq 352(%rsp), %rax mulq 232(%rsp) addq %rax, %rsi adcq %rdx, %rbx movq 352(%rsp), %rax mulq 240(%rsp) movq %rax, %r10 movq %rdx, %r11 movq 352(%rsp), %rax mulq 248(%rsp) movq %rax, %rcx movq %rdx, %rdi movq 352(%rsp), %rax mulq 256(%rsp) movq %rax, %rbp movq %rdx, %r8 movq 352(%rsp), %rax mulq 264(%rsp) movq %rax, %r9 movq %rdx, %r12 movq 360(%rsp), %rax mulq 232(%rsp) addq %rax, %r10 adcq %rdx, %r11 movq 360(%rsp), %rax mulq 240(%rsp) addq %rax, %rcx adcq %rdx, %rdi movq 360(%rsp), %rax mulq 248(%rsp) addq %rax, %rbp adcq %rdx, %r8 movq 360(%rsp), %rax mulq 256(%rsp) addq %rax, %r9 adcq %rdx, %r12 movq 360(%rsp), %rax imulq $19, %rax, %rax mulq 264(%rsp) addq %rax, %rsi adcq %rdx, %rbx movq 368(%rsp), %rax mulq 232(%rsp) addq %rax, %rcx adcq %rdx, %rdi movq 368(%rsp), %rax mulq 240(%rsp) addq %rax, %rbp adcq %rdx, %r8 movq 368(%rsp), %rax mulq 248(%rsp) addq %rax, %r9 adcq %rdx, %r12 movq 368(%rsp), %rax imulq $19, %rax, %rax mulq 256(%rsp) addq %rax, %rsi adcq %rdx, %rbx movq 368(%rsp), %rax imulq $19, %rax, %rax mulq 264(%rsp) addq %rax, %r10 adcq %rdx, %r11 movq 376(%rsp), %rax mulq 232(%rsp) addq %rax, %rbp adcq %rdx, %r8 movq 376(%rsp), %rax mulq 240(%rsp) addq %rax, %r9 adcq %rdx, %r12 movq 32(%rsp), %rax mulq 256(%rsp) addq %rax, %r10 adcq %rdx, %r11 movq 32(%rsp), %rax mulq 264(%rsp) addq %rax, %rcx adcq %rdx, %rdi movq 384(%rsp), %rax mulq 232(%rsp) addq %rax, %r9 adcq %rdx, %r12 movq 24(%rsp), %rax mulq 248(%rsp) addq %rax, %r10 adcq %rdx, %r11 movq 24(%rsp), %rax mulq 256(%rsp) addq %rax, %rcx adcq %rdx, %rdi movq 24(%rsp), %rax mulq 264(%rsp) addq %rax, %rbp adcq %rdx, %r8 movq $2251799813685247, %rax shldq $13, %rsi, %rbx andq %rax, %rsi shldq $13, %r10, %r11 andq %rax, %r10 addq %rbx, %r10 shldq $13, %rcx, %rdi andq %rax, %rcx addq %r11, %rcx shldq $13, %rbp, %r8 andq %rax, %rbp addq %rdi, %rbp shldq $13, %r9, %r12 andq %rax, %r9 addq %r8, %r9 imulq $19, %r12, %rdx addq %rdx, %rsi movq %rsi, %rdx shrq $51, %rdx addq %r10, %rdx movq %rdx, %rdi shrq $51, %rdx andq %rax, %rsi addq %rcx, %rdx movq %rdx, %rcx shrq $51, %rdx andq %rax, %rdi addq %rbp, %rdx movq %rdx, %r8 shrq $51, %rdx andq %rax, %rcx addq %r9, %rdx movq %rdx, %r9 shrq $51, %rdx andq %rax, %r8 imulq $19, %rdx, %rdx addq %rdx, %rsi andq %rax, %r9 movq %rsi, 352(%rsp) movq %rdi, 360(%rsp) movq %rcx, 368(%rsp) movq %r8, 376(%rsp) movq %r9, 384(%rsp) movq 272(%rsp), %rax mulq 272(%rsp) movq %rax, %rcx movq %rdx, %rsi movq 272(%rsp), %rax shlq $1, %rax mulq 280(%rsp) movq %rax, %rbx movq %rdx, %r8 movq 272(%rsp), %rax shlq $1, %rax mulq 288(%rsp) movq %rax, %r12 movq %rdx, %r9 movq 272(%rsp), %rax shlq $1, %rax mulq 296(%rsp) movq %rax, %rdi movq %rdx, %r11 movq 272(%rsp), %rax shlq $1, %rax mulq 304(%rsp) movq %rax, %r10 movq %rdx, %rbp movq 280(%rsp), %rax mulq 280(%rsp) addq %rax, %r12 adcq %rdx, %r9 movq 280(%rsp), %rax shlq $1, %rax mulq 288(%rsp) addq %rax, %rdi adcq %rdx, %r11 movq 280(%rsp), %rax shlq $1, %rax mulq 296(%rsp) addq %rax, %r10 adcq %rdx, %rbp movq 280(%rsp), %rax imulq $38, %rax, %rax mulq 304(%rsp) addq %rax, %rcx adcq %rdx, %rsi movq 288(%rsp), %rax mulq 288(%rsp) addq %rax, %r10 adcq %rdx, %rbp movq 288(%rsp), %rax imulq $38, %rax, %rax mulq 296(%rsp) addq %rax, %rcx adcq %rdx, %rsi movq 288(%rsp), %rax imulq $38, %rax, %rax mulq 304(%rsp) addq %rax, %rbx adcq %rdx, %r8 movq 296(%rsp), %rax imulq $19, %rax, %rax mulq 296(%rsp) addq %rax, %rbx adcq %rdx, %r8 movq 296(%rsp), %rax imulq $38, %rax, %rax mulq 304(%rsp) addq %rax, %r12 adcq %rdx, %r9 movq 304(%rsp), %rax imulq $19, %rax, %rax mulq 304(%rsp) addq %rax, %rdi adcq %rdx, %r11 movq $2251799813685247, %rax shldq $13, %rcx, %rsi andq %rax, %rcx shldq $13, %rbx, %r8 andq %rax, %rbx addq %rsi, %rbx shldq $13, %r12, %r9 andq %rax, %r12 addq %r8, %r12 shldq $13, %rdi, %r11 andq %rax, %rdi addq %r9, %rdi shldq $13, %r10, %rbp andq %rax, %r10 addq %r11, %r10 imulq $19, %rbp, %rdx addq %rdx, %rcx movq %rcx, %rdx shrq $51, %rdx addq %rbx, %rdx andq %rax, %rcx movq %rdx, %rsi shrq $51, %rdx addq %r12, %rdx andq %rax, %rsi movq %rdx, %r8 shrq $51, %rdx addq %rdi, %rdx andq %rax, %r8 movq %rdx, %rdi shrq $51, %rdx addq %r10, %rdx andq %rax, %rdi movq %rdx, %r9 shrq $51, %rdx imulq $19, %rdx, %rdx addq %rdx, %rcx andq %rax, %r9 movq %rcx, 272(%rsp) movq %rsi, 280(%rsp) movq %r8, 288(%rsp) movq %rdi, 296(%rsp) movq %r9, 304(%rsp) movq 232(%rsp), %rax mulq 232(%rsp) movq %rax, %r8 movq %rdx, %r11 movq 232(%rsp), %rax shlq $1, %rax mulq 240(%rsp) movq %rax, %r9 movq %rdx, %rbp movq 232(%rsp), %rax shlq $1, %rax mulq 248(%rsp) movq %rax, %rdi movq %rdx, %rbx movq 232(%rsp), %rax shlq $1, %rax mulq 256(%rsp) movq %rax, %rcx movq %rdx, %r10 movq 232(%rsp), %rax shlq $1, %rax mulq 264(%rsp) movq %rax, %r12 movq %rdx, %rsi movq 240(%rsp), %rax mulq 240(%rsp) addq %rax, %rdi adcq %rdx, %rbx movq 240(%rsp), %rax shlq $1, %rax mulq 248(%rsp) addq %rax, %rcx adcq %rdx, %r10 movq 240(%rsp), %rax shlq $1, %rax mulq 256(%rsp) addq %rax, %r12 adcq %rdx, %rsi movq 240(%rsp), %rax imulq $38, %rax, %rax mulq 264(%rsp) addq %rax, %r8 adcq %rdx, %r11 movq 248(%rsp), %rax mulq 248(%rsp) addq %rax, %r12 adcq %rdx, %rsi movq 248(%rsp), %rax imulq $38, %rax, %rax mulq 256(%rsp) addq %rax, %r8 adcq %rdx, %r11 movq 248(%rsp), %rax imulq $38, %rax, %rax mulq 264(%rsp) addq %rax, %r9 adcq %rdx, %rbp movq 256(%rsp), %rax imulq $19, %rax, %rax mulq 256(%rsp) addq %rax, %r9 adcq %rdx, %rbp movq 256(%rsp), %rax imulq $38, %rax, %rax mulq 264(%rsp) addq %rax, %rdi adcq %rdx, %rbx movq 264(%rsp), %rax imulq $19, %rax, %rax mulq 264(%rsp) addq %rax, %rcx adcq %rdx, %r10 movq $2251799813685247, %rax shldq $13, %r8, %r11 andq %rax, %r8 shldq $13, %r9, %rbp andq %rax, %r9 addq %r11, %r9 shldq $13, %rdi, %rbx andq %rax, %rdi addq %rbp, %rdi shldq $13, %rcx, %r10 andq %rax, %rcx addq %rbx, %rcx shldq $13, %r12, %rsi andq %rax, %r12 addq %r10, %r12 imulq $19, %rsi, %rdx addq %rdx, %r8 movq %r8, %rdx shrq $51, %rdx addq %r9, %rdx andq %rax, %r8 movq %rdx, %rsi shrq $51, %rdx addq %rdi, %rdx andq %rax, %rsi movq %rdx, %rdi shrq $51, %rdx addq %rcx, %rdx andq %rax, %rdi movq %rdx, %rcx shrq $51, %rdx addq %r12, %rdx andq %rax, %rcx movq %rdx, %r9 shrq $51, %rdx imulq $19, %rdx, %rdx addq %rdx, %r8 andq %rax, %r9 movq %r8, 232(%rsp) movq %rsi, 240(%rsp) movq %rdi, 248(%rsp) movq %rcx, 256(%rsp) movq %r9, 264(%rsp) movq 312(%rsp), %rax movq 320(%rsp), %rcx movq 328(%rsp), %rdx movq 336(%rsp), %rsi movq 344(%rsp), %rdi addq 352(%rsp), %rax addq 360(%rsp), %rcx addq 368(%rsp), %rdx addq 376(%rsp), %rsi addq 384(%rsp), %rdi movq %rax, 392(%rsp) movq %rcx, 400(%rsp) movq %rdx, 408(%rsp) movq %rsi, 416(%rsp) movq %rdi, 424(%rsp) movq 312(%rsp), %rax movq 320(%rsp), %rcx movq 328(%rsp), %rdx movq 336(%rsp), %rsi movq 344(%rsp), %rdi movq $4503599627370458, %r8 movq $4503599627370494, %r9 addq %r8, %rax addq %r9, %rcx addq %r9, %rdx addq %r9, %rsi addq %r9, %rdi subq 352(%rsp), %rax subq 360(%rsp), %rcx subq 368(%rsp), %rdx subq 376(%rsp), %rsi subq 384(%rsp), %rdi movq %rax, 352(%rsp) movq %rcx, 360(%rsp) movq %rdx, 368(%rsp) movq %rsi, 376(%rsp) movq %rdi, 384(%rsp) movq 296(%rsp), %rax imulq $19, %rax, %rax movq %rax, 24(%rsp) mulq 248(%rsp) movq %rax, %r9 movq %rdx, %r12 movq 304(%rsp), %rax imulq $19, %rax, %rax movq %rax, 32(%rsp) mulq 240(%rsp) addq %rax, %r9 adcq %rdx, %r12 movq 272(%rsp), %rax mulq 232(%rsp) addq %rax, %r9 adcq %rdx, %r12 movq 272(%rsp), %rax mulq 240(%rsp) movq %rax, %rcx movq %rdx, %rbx movq 272(%rsp), %rax mulq 248(%rsp) movq %rax, %r8 movq %rdx, %rdi movq 272(%rsp), %rax mulq 256(%rsp) movq %rax, %r11 movq %rdx, %rsi movq 272(%rsp), %rax mulq 264(%rsp) movq %rax, %rbp movq %rdx, %r10 movq 280(%rsp), %rax mulq 232(%rsp) addq %rax, %rcx adcq %rdx, %rbx movq 280(%rsp), %rax mulq 240(%rsp) addq %rax, %r8 adcq %rdx, %rdi movq 280(%rsp), %rax mulq 248(%rsp) addq %rax, %r11 adcq %rdx, %rsi movq 280(%rsp), %rax mulq 256(%rsp) addq %rax, %rbp adcq %rdx, %r10 movq 280(%rsp), %rax imulq $19, %rax, %rax mulq 264(%rsp) addq %rax, %r9 adcq %rdx, %r12 movq 288(%rsp), %rax mulq 232(%rsp) addq %rax, %r8 adcq %rdx, %rdi movq 288(%rsp), %rax mulq 240(%rsp) addq %rax, %r11 adcq %rdx, %rsi movq 288(%rsp), %rax mulq 248(%rsp) addq %rax, %rbp adcq %rdx, %r10 movq 288(%rsp), %rax imulq $19, %rax, %rax mulq 256(%rsp) addq %rax, %r9 adcq %rdx, %r12 movq 288(%rsp), %rax imulq $19, %rax, %rax mulq 264(%rsp) addq %rax, %rcx adcq %rdx, %rbx movq 296(%rsp), %rax mulq 232(%rsp) addq %rax, %r11 adcq %rdx, %rsi movq 296(%rsp), %rax mulq 240(%rsp) addq %rax, %rbp adcq %rdx, %r10 movq 24(%rsp), %rax mulq 256(%rsp) addq %rax, %rcx adcq %rdx, %rbx movq 24(%rsp), %rax mulq 264(%rsp) addq %rax, %r8 adcq %rdx, %rdi movq 304(%rsp), %rax mulq 232(%rsp) addq %rax, %rbp adcq %rdx, %r10 movq 32(%rsp), %rax mulq 248(%rsp) addq %rax, %rcx adcq %rdx, %rbx movq 32(%rsp), %rax mulq 256(%rsp) addq %rax, %r8 adcq %rdx, %rdi movq 32(%rsp), %rax mulq 264(%rsp) addq %rax, %r11 adcq %rdx, %rsi movq $2251799813685247, %rax shldq $13, %r9, %r12 andq %rax, %r9 shldq $13, %rcx, %rbx andq %rax, %rcx addq %r12, %rcx shldq $13, %r8, %rdi andq %rax, %r8 addq %rbx, %r8 shldq $13, %r11, %rsi andq %rax, %r11 addq %rdi, %r11 shldq $13, %rbp, %r10 andq %rax, %rbp addq %rsi, %rbp imulq $19, %r10, %rdx addq %rdx, %r9 movq %r9, %rdx shrq $51, %rdx addq %rcx, %rdx movq %rdx, %rcx shrq $51, %rdx andq %rax, %r9 addq %r8, %rdx movq %rdx, %rsi shrq $51, %rdx andq %rax, %rcx addq %r11, %rdx movq %rdx, %rdi shrq $51, %rdx andq %rax, %rsi addq %rbp, %rdx movq %rdx, %r8 shrq $51, %rdx andq %rax, %rdi imulq $19, %rdx, %rdx addq %rdx, %r9 andq %rax, %r8 movq %r9, 72(%rsp) movq %rcx, 80(%rsp) movq %rsi, 88(%rsp) movq %rdi, 96(%rsp) movq %r8, 104(%rsp) movq 272(%rsp), %rax movq 280(%rsp), %rcx movq 288(%rsp), %rdx movq 296(%rsp), %rsi movq 304(%rsp), %rdi movq $4503599627370458, %r8 movq $4503599627370494, %r9 addq %r8, %rax addq %r9, %rcx addq %r9, %rdx addq %r9, %rsi addq %r9, %rdi subq 232(%rsp), %rax subq 240(%rsp), %rcx subq 248(%rsp), %rdx subq 256(%rsp), %rsi subq 264(%rsp), %rdi movq %rax, 232(%rsp) movq %rcx, 240(%rsp) movq %rdx, 248(%rsp) movq %rsi, 256(%rsp) movq %rdi, 264(%rsp) movq 352(%rsp), %rax mulq 352(%rsp) movq %rax, %r11 movq %rdx, %rbx movq 352(%rsp), %rax shlq $1, %rax mulq 360(%rsp) movq %rax, %rbp movq %rdx, %r10 movq 352(%rsp), %rax shlq $1, %rax mulq 368(%rsp) movq %rax, %r8 movq %rdx, %r12 movq 352(%rsp), %rax shlq $1, %rax mulq 376(%rsp) movq %rax, %rcx movq %rdx, %rsi movq 352(%rsp), %rax shlq $1, %rax mulq 384(%rsp) movq %rax, %rdi movq %rdx, %r9 movq 360(%rsp), %rax mulq 360(%rsp) addq %rax, %r8 adcq %rdx, %r12 movq 360(%rsp), %rax shlq $1, %rax mulq 368(%rsp) addq %rax, %rcx adcq %rdx, %rsi movq 360(%rsp), %rax shlq $1, %rax mulq 376(%rsp) addq %rax, %rdi adcq %rdx, %r9 movq 360(%rsp), %rax imulq $38, %rax, %rax mulq 384(%rsp) addq %rax, %r11 adcq %rdx, %rbx movq 368(%rsp), %rax mulq 368(%rsp) addq %rax, %rdi adcq %rdx, %r9 movq 368(%rsp), %rax imulq $38, %rax, %rax mulq 376(%rsp) addq %rax, %r11 adcq %rdx, %rbx movq 368(%rsp), %rax imulq $38, %rax, %rax mulq 384(%rsp) addq %rax, %rbp adcq %rdx, %r10 movq 376(%rsp), %rax imulq $19, %rax, %rax mulq 376(%rsp) addq %rax, %rbp adcq %rdx, %r10 movq 376(%rsp), %rax imulq $38, %rax, %rax mulq 384(%rsp) addq %rax, %r8 adcq %rdx, %r12 movq 384(%rsp), %rax imulq $19, %rax, %rax mulq 384(%rsp) addq %rax, %rcx adcq %rdx, %rsi movq $2251799813685247, %rax shldq $13, %r11, %rbx andq %rax, %r11 shldq $13, %rbp, %r10 andq %rax, %rbp addq %rbx, %rbp shldq $13, %r8, %r12 andq %rax, %r8 addq %r10, %r8 shldq $13, %rcx, %rsi andq %rax, %rcx addq %r12, %rcx shldq $13, %rdi, %r9 andq %rax, %rdi addq %rsi, %rdi imulq $19, %r9, %rdx addq %rdx, %r11 movq %r11, %rdx shrq $51, %rdx addq %rbp, %rdx andq %rax, %r11 movq %rdx, %rsi shrq $51, %rdx addq %r8, %rdx andq %rax, %rsi movq %rdx, %r8 shrq $51, %rdx addq %rcx, %rdx andq %rax, %r8 movq %rdx, %rcx shrq $51, %rdx addq %rdi, %rdx andq %rax, %rcx movq %rdx, %rdi shrq $51, %rdx imulq $19, %rdx, %rdx addq %rdx, %r11 andq %rax, %rdi movq %r11, 352(%rsp) movq %rsi, 360(%rsp) movq %r8, 368(%rsp) movq %rcx, 376(%rsp) movq %rdi, 384(%rsp) movq $996679680, %rcx movq 232(%rsp), %rax mulq %rcx shrq $13, %rax movq %rax, %rsi movq %rdx, %rdi movq 240(%rsp), %rax mulq %rcx shrq $13, %rax addq %rax, %rdi movq %rdx, %r8 movq 248(%rsp), %rax mulq %rcx shrq $13, %rax addq %rax, %r8 movq %rdx, %r9 movq 256(%rsp), %rax mulq %rcx shrq $13, %rax addq %rax, %r9 movq %rdx, %r10 movq 264(%rsp), %rax mulq %rcx shrq $13, %rax addq %rax, %r10 imulq $19, %rdx, %rax addq %rax, %rsi addq 272(%rsp), %rsi addq 280(%rsp), %rdi addq 288(%rsp), %r8 addq 296(%rsp), %r9 addq 304(%rsp), %r10 movq %rsi, 272(%rsp) movq %rdi, 280(%rsp) movq %r8, 288(%rsp) movq %r9, 296(%rsp) movq %r10, 304(%rsp) movq 392(%rsp), %rax mulq 392(%rsp) movq %rax, %rbx movq %rdx, %r8 movq 392(%rsp), %rax shlq $1, %rax mulq 400(%rsp) movq %rax, %r12 movq %rdx, %rsi movq 392(%rsp), %rax shlq $1, %rax mulq 408(%rsp) movq %rax, %rdi movq %rdx, %rcx movq 392(%rsp), %rax shlq $1, %rax mulq 416(%rsp) movq %rax, %rbp movq %rdx, %r11 movq 392(%rsp), %rax shlq $1, %rax mulq 424(%rsp) movq %rax, %r10 movq %rdx, %r9 movq 400(%rsp), %rax mulq 400(%rsp) addq %rax, %rdi adcq %rdx, %rcx movq 400(%rsp), %rax shlq $1, %rax mulq 408(%rsp) addq %rax, %rbp adcq %rdx, %r11 movq 400(%rsp), %rax shlq $1, %rax mulq 416(%rsp) addq %rax, %r10 adcq %rdx, %r9 movq 400(%rsp), %rax imulq $38, %rax, %rax mulq 424(%rsp) addq %rax, %rbx adcq %rdx, %r8 movq 408(%rsp), %rax mulq 408(%rsp) addq %rax, %r10 adcq %rdx, %r9 movq 408(%rsp), %rax imulq $38, %rax, %rax mulq 416(%rsp) addq %rax, %rbx adcq %rdx, %r8 movq 408(%rsp), %rax imulq $38, %rax, %rax mulq 424(%rsp) addq %rax, %r12 adcq %rdx, %rsi movq 416(%rsp), %rax imulq $19, %rax, %rax mulq 416(%rsp) addq %rax, %r12 adcq %rdx, %rsi movq 416(%rsp), %rax imulq $38, %rax, %rax mulq 424(%rsp) addq %rax, %rdi adcq %rdx, %rcx movq 424(%rsp), %rax imulq $19, %rax, %rax mulq 424(%rsp) addq %rax, %rbp adcq %rdx, %r11 movq $2251799813685247, %rax shldq $13, %rbx, %r8 andq %rax, %rbx shldq $13, %r12, %rsi andq %rax, %r12 addq %r8, %r12 shldq $13, %rdi, %rcx andq %rax, %rdi addq %rsi, %rdi shldq $13, %rbp, %r11 andq %rax, %rbp addq %rcx, %rbp shldq $13, %r10, %r9 andq %rax, %r10 addq %r11, %r10 imulq $19, %r9, %rcx addq %rcx, %rbx movq %rbx, %rcx shrq $51, %rcx addq %r12, %rcx andq %rax, %rbx movq %rcx, %rdx shrq $51, %rcx addq %rdi, %rcx andq %rax, %rdx movq %rcx, %rsi shrq $51, %rcx addq %rbp, %rcx andq %rax, %rsi movq %rcx, %rdi shrq $51, %rcx addq %r10, %rcx andq %rax, %rdi movq %rcx, %r8 shrq $51, %rcx imulq $19, %rcx, %rcx addq %rcx, %rbx andq %rax, %r8 movq %rbx, 112(%rsp) movq %rdx, 120(%rsp) movq %rsi, 128(%rsp) movq %rdi, 136(%rsp) movq %r8, 144(%rsp) movq 216(%rsp), %rax imulq $19, %rax, %rax movq %rax, 32(%rsp) mulq 368(%rsp) movq %rax, %rdi movq %rdx, %rsi movq 224(%rsp), %rax imulq $19, %rax, %rax movq %rax, 24(%rsp) mulq 360(%rsp) addq %rax, %rdi adcq %rdx, %rsi movq 192(%rsp), %rax mulq 352(%rsp) addq %rax, %rdi adcq %rdx, %rsi movq 192(%rsp), %rax mulq 360(%rsp) movq %rax, %r11 movq %rdx, %rbx movq 192(%rsp), %rax mulq 368(%rsp) movq %rax, %r8 movq %rdx, %r9 movq 192(%rsp), %rax mulq 376(%rsp) movq %rax, %r12 movq %rdx, %rcx movq 192(%rsp), %rax mulq 384(%rsp) movq %rax, %rbp movq %rdx, %r10 movq 200(%rsp), %rax mulq 352(%rsp) addq %rax, %r11 adcq %rdx, %rbx movq 200(%rsp), %rax mulq 360(%rsp) addq %rax, %r8 adcq %rdx, %r9 movq 200(%rsp), %rax mulq 368(%rsp) addq %rax, %r12 adcq %rdx, %rcx movq 200(%rsp), %rax mulq 376(%rsp) addq %rax, %rbp adcq %rdx, %r10 movq 200(%rsp), %rax imulq $19, %rax, %rax mulq 384(%rsp) addq %rax, %rdi adcq %rdx, %rsi movq 208(%rsp), %rax mulq 352(%rsp) addq %rax, %r8 adcq %rdx, %r9 movq 208(%rsp), %rax mulq 360(%rsp) addq %rax, %r12 adcq %rdx, %rcx movq 208(%rsp), %rax mulq 368(%rsp) addq %rax, %rbp adcq %rdx, %r10 movq 208(%rsp), %rax imulq $19, %rax, %rax mulq 376(%rsp) addq %rax, %rdi adcq %rdx, %rsi movq 208(%rsp), %rax imulq $19, %rax, %rax mulq 384(%rsp) addq %rax, %r11 adcq %rdx, %rbx movq 216(%rsp), %rax mulq 352(%rsp) addq %rax, %r12 adcq %rdx, %rcx movq 216(%rsp), %rax mulq 360(%rsp) addq %rax, %rbp adcq %rdx, %r10 movq 32(%rsp), %rax mulq 376(%rsp) addq %rax, %r11 adcq %rdx, %rbx movq 32(%rsp), %rax mulq 384(%rsp) addq %rax, %r8 adcq %rdx, %r9 movq 224(%rsp), %rax mulq 352(%rsp) addq %rax, %rbp adcq %rdx, %r10 movq 24(%rsp), %rax mulq 368(%rsp) addq %rax, %r11 adcq %rdx, %rbx movq 24(%rsp), %rax mulq 376(%rsp) addq %rax, %r8 adcq %rdx, %r9 movq 24(%rsp), %rax mulq 384(%rsp) addq %rax, %r12 adcq %rdx, %rcx movq $2251799813685247, %rax shldq $13, %rdi, %rsi andq %rax, %rdi shldq $13, %r11, %rbx andq %rax, %r11 addq %rsi, %r11 shldq $13, %r8, %r9 andq %rax, %r8 addq %rbx, %r8 shldq $13, %r12, %rcx andq %rax, %r12 addq %r9, %r12 shldq $13, %rbp, %r10 andq %rax, %rbp addq %rcx, %rbp imulq $19, %r10, %rcx addq %rcx, %rdi movq %rdi, %rcx shrq $51, %rcx addq %r11, %rcx movq %rcx, %rdx shrq $51, %rcx andq %rax, %rdi addq %r8, %rcx movq %rcx, %rsi shrq $51, %rcx andq %rax, %rdx addq %r12, %rcx movq %rcx, %r8 shrq $51, %rcx andq %rax, %rsi addq %rbp, %rcx movq %rcx, %r9 shrq $51, %rcx andq %rax, %r8 imulq $19, %rcx, %rcx addq %rcx, %rdi andq %rax, %r9 movq %rdi, 152(%rsp) movq %rdx, 160(%rsp) movq %rsi, 168(%rsp) movq %r8, 176(%rsp) movq %r9, 184(%rsp) movq 256(%rsp), %rax imulq $19, %rax, %rax movq %rax, 24(%rsp) mulq 288(%rsp) movq %rax, %rbp movq %rdx, %rdi movq 264(%rsp), %rax imulq $19, %rax, %rax movq %rax, 32(%rsp) mulq 280(%rsp) addq %rax, %rbp adcq %rdx, %rdi movq 232(%rsp), %rax mulq 272(%rsp) addq %rax, %rbp adcq %rdx, %rdi movq 232(%rsp), %rax mulq 280(%rsp) movq %rax, %rbx movq %rdx, %r12 movq 232(%rsp), %rax mulq 288(%rsp) movq %rax, %rsi movq %rdx, %r10 movq 232(%rsp), %rax mulq 296(%rsp) movq %rax, %r11 movq %rdx, %r8 movq 232(%rsp), %rax mulq 304(%rsp) movq %rax, %rcx movq %rdx, %r9 movq 240(%rsp), %rax mulq 272(%rsp) addq %rax, %rbx adcq %rdx, %r12 movq 240(%rsp), %rax mulq 280(%rsp) addq %rax, %rsi adcq %rdx, %r10 movq 240(%rsp), %rax mulq 288(%rsp) addq %rax, %r11 adcq %rdx, %r8 movq 240(%rsp), %rax mulq 296(%rsp) addq %rax, %rcx adcq %rdx, %r9 movq 240(%rsp), %rax imulq $19, %rax, %rax mulq 304(%rsp) addq %rax, %rbp adcq %rdx, %rdi movq 248(%rsp), %rax mulq 272(%rsp) addq %rax, %rsi adcq %rdx, %r10 movq 248(%rsp), %rax mulq 280(%rsp) addq %rax, %r11 adcq %rdx, %r8 movq 248(%rsp), %rax mulq 288(%rsp) addq %rax, %rcx adcq %rdx, %r9 movq 248(%rsp), %rax imulq $19, %rax, %rax mulq 296(%rsp) addq %rax, %rbp adcq %rdx, %rdi movq 248(%rsp), %rax imulq $19, %rax, %rax mulq 304(%rsp) addq %rax, %rbx adcq %rdx, %r12 movq 256(%rsp), %rax mulq 272(%rsp) addq %rax, %r11 adcq %rdx, %r8 movq 256(%rsp), %rax mulq 280(%rsp) addq %rax, %rcx adcq %rdx, %r9 movq 24(%rsp), %rax mulq 296(%rsp) addq %rax, %rbx adcq %rdx, %r12 movq 24(%rsp), %rax mulq 304(%rsp) addq %rax, %rsi adcq %rdx, %r10 movq 264(%rsp), %rax mulq 272(%rsp) addq %rax, %rcx adcq %rdx, %r9 movq 32(%rsp), %rax mulq 288(%rsp) addq %rax, %rbx adcq %rdx, %r12 movq 32(%rsp), %rax mulq 296(%rsp) addq %rax, %rsi adcq %rdx, %r10 movq 32(%rsp), %rax mulq 304(%rsp) addq %rax, %r11 adcq %rdx, %r8 movq $2251799813685247, %r13 shldq $13, %rbp, %rdi andq %r13, %rbp shldq $13, %rbx, %r12 andq %r13, %rbx addq %rdi, %rbx shldq $13, %rsi, %r10 andq %r13, %rsi addq %r12, %rsi shldq $13, %r11, %r8 andq %r13, %r11 addq %r10, %r11 shldq $13, %rcx, %r9 andq %r13, %rcx addq %r8, %rcx imulq $19, %r9, %rax addq %rax, %rbp movq %rbp, %r8 shrq $51, %r8 addq %rbx, %r8 movq %r8, %rax shrq $51, %r8 andq %r13, %rbp addq %rsi, %r8 movq %r8, %rdx shrq $51, %r8 andq %r13, %rax addq %r11, %r8 movq %r8, %rsi shrq $51, %r8 andq %r13, %rdx addq %rcx, %r8 movq %r8, %rdi shrq $51, %r8 andq %r13, %rsi imulq $19, %r8, %rcx addq %rcx, %rbp andq %r13, %rdi movq 16(%rsp), %rcx cmpq $0, %rcx jnbe Ljade_scalarmult_curve25519_amd64_ref5_base$28 movq %rbp, 152(%rsp) movq %rax, 160(%rsp) movq %rdx, 168(%rsp) movq %rsi, 176(%rsp) movq %rdi, 184(%rsp) movq 152(%rsp), %rax movq %rax, 112(%rsp) movq 160(%rsp), %rax movq %rax, 120(%rsp) movq 168(%rsp), %rax movq %rax, 128(%rsp) movq 176(%rsp), %rax movq %rax, 136(%rsp) movq 184(%rsp), %rax movq %rax, 144(%rsp) leaq 112(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$27(%rip), %rax movq %rax, (%rsp) jmp L_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5_base$27: leaq 8(%rsp), %rsp movq 112(%rsp), %rax movq %rax, 192(%rsp) movq 120(%rsp), %rax movq %rax, 200(%rsp) movq 128(%rsp), %rax movq %rax, 208(%rsp) movq 136(%rsp), %rax movq %rax, 216(%rsp) movq 144(%rsp), %rax movq %rax, 224(%rsp) leaq 192(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$26(%rip), %rax movq %rax, (%rsp) jmp L_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5_base$26: leaq 8(%rsp), %rsp leaq 192(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$25(%rip), %rax movq %rax, (%rsp) jmp L_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5_base$25: leaq 8(%rsp), %rsp leaq 192(%rsp), %r9 leaq 152(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$24(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5_base$24: leaq 24(%rsp), %rsp leaq 112(%rsp), %r9 leaq 192(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$23(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5_base$23: leaq 24(%rsp), %rsp movq 112(%rsp), %rax movq %rax, 152(%rsp) movq 120(%rsp), %rax movq %rax, 160(%rsp) movq 128(%rsp), %rax movq %rax, 168(%rsp) movq 136(%rsp), %rax movq %rax, 176(%rsp) movq 144(%rsp), %rax movq %rax, 184(%rsp) leaq 152(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$22(%rip), %rax movq %rax, (%rsp) jmp L_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5_base$22: leaq 8(%rsp), %rsp leaq 192(%rsp), %r9 leaq 152(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$21(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5_base$21: leaq 24(%rsp), %rsp movq 192(%rsp), %rax movq %rax, 152(%rsp) movq 200(%rsp), %rax movq %rax, 160(%rsp) movq 208(%rsp), %rax movq %rax, 168(%rsp) movq 216(%rsp), %rax movq %rax, 176(%rsp) movq 224(%rsp), %rax movq %rax, 184(%rsp) leaq 152(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$20(%rip), %rax movq %rax, (%rsp) jmp L_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5_base$20: leaq 8(%rsp), %rsp movl $4, %r13d leaq 152(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$19(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5_base$19: leaq 8(%rsp), %rsp leaq 192(%rsp), %r9 leaq 152(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$18(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5_base$18: leaq 24(%rsp), %rsp movl $10, %r13d movq 192(%rsp), %rax movq %rax, 152(%rsp) movq 200(%rsp), %rax movq %rax, 160(%rsp) movq 208(%rsp), %rax movq %rax, 168(%rsp) movq 216(%rsp), %rax movq %rax, 176(%rsp) movq 224(%rsp), %rax movq %rax, 184(%rsp) leaq 152(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$17(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5_base$17: leaq 8(%rsp), %rsp leaq 152(%rsp), %r9 leaq 192(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$16(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5_base$16: leaq 24(%rsp), %rsp movl $20, %r13d movq 152(%rsp), %rax movq %rax, 272(%rsp) movq 160(%rsp), %rax movq %rax, 280(%rsp) movq 168(%rsp), %rax movq %rax, 288(%rsp) movq 176(%rsp), %rax movq %rax, 296(%rsp) movq 184(%rsp), %rax movq %rax, 304(%rsp) leaq 272(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$15(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5_base$15: leaq 8(%rsp), %rsp leaq 152(%rsp), %r9 leaq 272(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$14(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5_base$14: leaq 24(%rsp), %rsp movl $10, %r13d leaq 152(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$13(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5_base$13: leaq 8(%rsp), %rsp leaq 192(%rsp), %r9 leaq 152(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$12(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5_base$12: leaq 24(%rsp), %rsp movl $50, %r13d movq 192(%rsp), %rax movq %rax, 152(%rsp) movq 200(%rsp), %rax movq %rax, 160(%rsp) movq 208(%rsp), %rax movq %rax, 168(%rsp) movq 216(%rsp), %rax movq %rax, 176(%rsp) movq 224(%rsp), %rax movq %rax, 184(%rsp) leaq 152(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$11(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5_base$11: leaq 8(%rsp), %rsp leaq 152(%rsp), %r9 leaq 192(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$10(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5_base$10: leaq 24(%rsp), %rsp movl $100, %r13d movq 152(%rsp), %rax movq %rax, 272(%rsp) movq 160(%rsp), %rax movq %rax, 280(%rsp) movq 168(%rsp), %rax movq %rax, 288(%rsp) movq 176(%rsp), %rax movq %rax, 296(%rsp) movq 184(%rsp), %rax movq %rax, 304(%rsp) leaq 272(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$9(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5_base$9: leaq 8(%rsp), %rsp leaq 152(%rsp), %r9 leaq 272(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$8(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5_base$8: leaq 24(%rsp), %rsp movl $50, %r13d leaq 152(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$7(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5_base$7: leaq 8(%rsp), %rsp leaq 192(%rsp), %r9 leaq 152(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$6(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5_base$6: leaq 24(%rsp), %rsp movl $4, %r13d leaq 192(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$5(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5_base$5: leaq 8(%rsp), %rsp leaq 192(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$4(%rip), %rax movq %rax, (%rsp) jmp L_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5_base$4: leaq 8(%rsp), %rsp leaq 192(%rsp), %r9 leaq 112(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5_base$3(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5_base$3: leaq 24(%rsp), %rsp movq 96(%rsp), %rax imulq $19, %rax, %rax movq %rax, 8(%rsp) mulq 208(%rsp) movq %rax, %r9 movq %rdx, %r12 movq 104(%rsp), %rax imulq $19, %rax, %rax movq %rax, 16(%rsp) mulq 200(%rsp) addq %rax, %r9 adcq %rdx, %r12 movq 72(%rsp), %rax mulq 192(%rsp) addq %rax, %r9 adcq %rdx, %r12 movq 72(%rsp), %rax mulq 200(%rsp) movq %rax, %r11 movq %rdx, %rdi movq 72(%rsp), %rax mulq 208(%rsp) movq %rax, %rsi movq %rdx, %r10 movq 72(%rsp), %rax mulq 216(%rsp) movq %rax, %rcx movq %rdx, %r8 movq 72(%rsp), %rax mulq 224(%rsp) movq %rax, %rbx movq %rdx, %rbp movq 80(%rsp), %rax mulq 192(%rsp) addq %rax, %r11 adcq %rdx, %rdi movq 80(%rsp), %rax mulq 200(%rsp) addq %rax, %rsi adcq %rdx, %r10 movq 80(%rsp), %rax mulq 208(%rsp) addq %rax, %rcx adcq %rdx, %r8 movq 80(%rsp), %rax mulq 216(%rsp) addq %rax, %rbx adcq %rdx, %rbp movq 80(%rsp), %rax imulq $19, %rax, %rax mulq 224(%rsp) addq %rax, %r9 adcq %rdx, %r12 movq 88(%rsp), %rax mulq 192(%rsp) addq %rax, %rsi adcq %rdx, %r10 movq 88(%rsp), %rax mulq 200(%rsp) addq %rax, %rcx adcq %rdx, %r8 movq 88(%rsp), %rax mulq 208(%rsp) addq %rax, %rbx adcq %rdx, %rbp movq 88(%rsp), %rax imulq $19, %rax, %rax mulq 216(%rsp) addq %rax, %r9 adcq %rdx, %r12 movq 88(%rsp), %rax imulq $19, %rax, %rax mulq 224(%rsp) addq %rax, %r11 adcq %rdx, %rdi movq 96(%rsp), %rax mulq 192(%rsp) addq %rax, %rcx adcq %rdx, %r8 movq 96(%rsp), %rax mulq 200(%rsp) addq %rax, %rbx adcq %rdx, %rbp movq 8(%rsp), %rax mulq 216(%rsp) addq %rax, %r11 adcq %rdx, %rdi movq 8(%rsp), %rax mulq 224(%rsp) addq %rax, %rsi adcq %rdx, %r10 movq 104(%rsp), %rax mulq 192(%rsp) addq %rax, %rbx adcq %rdx, %rbp movq 16(%rsp), %rax mulq 208(%rsp) addq %rax, %r11 adcq %rdx, %rdi movq 16(%rsp), %rax mulq 216(%rsp) addq %rax, %rsi adcq %rdx, %r10 movq 16(%rsp), %rax mulq 224(%rsp) addq %rax, %rcx adcq %rdx, %r8 movq $2251799813685247, %rax shldq $13, %r9, %r12 andq %rax, %r9 shldq $13, %r11, %rdi andq %rax, %r11 addq %r12, %r11 shldq $13, %rsi, %r10 andq %rax, %rsi addq %rdi, %rsi shldq $13, %rcx, %r8 andq %rax, %rcx addq %r10, %rcx shldq $13, %rbx, %rbp andq %rax, %rbx addq %r8, %rbx imulq $19, %rbp, %rdx addq %rdx, %r9 movq %r9, %r8 shrq $51, %r8 addq %r11, %r8 movq %r8, %rdx shrq $51, %r8 andq %rax, %r9 addq %rsi, %r8 movq %r8, %rsi shrq $51, %r8 andq %rax, %rdx addq %rcx, %r8 movq %r8, %rcx shrq $51, %r8 andq %rax, %rsi addq %rbx, %r8 movq %r8, %rdi shrq $51, %r8 andq %rax, %rcx imulq $19, %r8, %r8 addq %r8, %r9 andq %rax, %rdi movq $2251799813685247, %rax movq %rax, %r8 addq $-18, %r8 movq $3, %r10 jmp Ljade_scalarmult_curve25519_amd64_ref5_base$1 Ljade_scalarmult_curve25519_amd64_ref5_base$2: movq %r9, %r11 shrq $51, %r11 andq %rax, %r9 addq %r11, %rdx movq %rdx, %r11 shrq $51, %r11 andq %rax, %rdx addq %r11, %rsi movq %rsi, %r11 shrq $51, %r11 andq %rax, %rsi addq %r11, %rcx movq %rcx, %r11 shrq $51, %r11 andq %rax, %rcx addq %r11, %rdi movq %rdi, %r11 shrq $51, %r11 andq %rax, %rdi imulq $19, %r11, %r11 addq %r11, %r9 addq $-1, %r10 Ljade_scalarmult_curve25519_amd64_ref5_base$1: cmpq $0, %r10 jnbe Ljade_scalarmult_curve25519_amd64_ref5_base$2 movq $1, %r11 cmpq %r8, %r9 cmovl %r10, %r11 cmpq %rax, %rdx cmovne %r10, %r11 cmpq %rax, %rsi cmovne %r10, %r11 cmpq %rax, %rcx cmovne %r10, %r11 cmpq %rax, %rdi cmovne %r10, %r11 negq %r11 andq %r11, %rax andq %r11, %r8 subq %r8, %r9 subq %rax, %rdx subq %rax, %rsi subq %rax, %rcx subq %rax, %rdi movq %rdx, %rax shlq $51, %rax orq %r9, %rax movq %rsi, %r8 shlq $38, %r8 shrq $13, %rdx orq %rdx, %r8 movq %rcx, %rdx shlq $25, %rdx shrq $26, %rsi orq %rsi, %rdx shlq $12, %rdi shrq $39, %rcx orq %rcx, %rdi movq (%rsp), %rcx movq %rax, (%rcx) movq %r8, 8(%rcx) movq %rdx, 16(%rcx) movq %rdi, 24(%rcx) xorq %rax, %rax movq 432(%rsp), %rbx movq 440(%rsp), %rbp movq 448(%rsp), %r12 movq 456(%rsp), %r13 movq 464(%rsp), %r14 movq 472(%rsp), %rsp ret _jade_scalarmult_curve25519_amd64_ref5: jade_scalarmult_curve25519_amd64_ref5: movq %rsp, %rax leaq -480(%rsp), %rsp andq $-8, %rsp movq %rax, 472(%rsp) movq %rbx, 432(%rsp) movq %rbp, 440(%rsp) movq %r12, 448(%rsp) movq %r13, 456(%rsp) movq %r14, 464(%rsp) movq %rdi, (%rsp) movq (%rsi), %rax movq %rax, 40(%rsp) movq 8(%rsi), %rax movq %rax, 48(%rsp) movq 16(%rsi), %rax movq %rax, 56(%rsp) movq 24(%rsi), %rax movq %rax, 64(%rsp) andb $-8, 40(%rsp) andb $127, 71(%rsp) orb $64, 71(%rsp) movq (%rdx), %rax movq 8(%rdx), %rsi movq 16(%rdx), %rdi movq 24(%rdx), %rdx movq $2251799813685247, %r9 movq %rax, %rcx andq %r9, %rcx movq %rsi, %r8 shlq $13, %r8 shrq $51, %rax orq %rax, %r8 andq %r9, %r8 movq %rdi, %r10 shlq $26, %r10 shrq $38, %rsi orq %rsi, %r10 andq %r9, %r10 movq %rdx, %r11 shlq $39, %r11 shrq $25, %rdi orq %rdi, %r11 andq %r9, %r11 movq %rdx, %rbp shrq $12, %rbp andq %r9, %rbp xorq %r9, %r9 movq $1, 72(%rsp) movq $0, %rbx movq %rcx, 112(%rsp) movq %r8, 120(%rsp) movq %r10, 128(%rsp) movq %r11, 136(%rsp) movq %rbp, 144(%rsp) movq $1, 152(%rsp) movq %r9, 80(%rsp) movq %r9, %rax movq %r9, 160(%rsp) movq %r9, 88(%rsp) movq %r9, %rdx movq %r9, 168(%rsp) movq %r9, 96(%rsp) movq %r9, %rsi movq %r9, 176(%rsp) movq %r9, 104(%rsp) movq %r9, %rdi movq %r9, 184(%rsp) movq %rcx, 192(%rsp) movq %r8, 200(%rsp) movq %r10, 208(%rsp) movq %r11, 216(%rsp) movq %rbp, 224(%rsp) movq $255, %rcx movq $0, 8(%rsp) Ljade_scalarmult_curve25519_amd64_ref5$28: addq $-1, %rcx movq %rcx, 16(%rsp) movq %rcx, %r8 shrq $3, %r8 movzbq 40(%rsp,%r8), %r8 andq $7, %rcx shrq %cl, %r8 andq $1, %r8 movq 8(%rsp), %r9 xorq %r8, %r9 xorq %rcx, %rcx subq %r9, %rcx movq %rbx, %r11 movq %rax, %rbp movq %rdx, %r12 movq %rsi, %r9 movq %rdi, %r10 xorq 152(%rsp), %r11 andq %rcx, %r11 xorq 160(%rsp), %rbp andq %rcx, %rbp xorq 168(%rsp), %r12 andq %rcx, %r12 xorq 176(%rsp), %r9 andq %rcx, %r9 xorq 184(%rsp), %r10 andq %rcx, %r10 xorq %r11, %rbx movq 152(%rsp), %r13 xorq %r11, %r13 movq %r13, 152(%rsp) xorq %rbp, %rax movq 160(%rsp), %r11 xorq %rbp, %r11 movq %r11, 160(%rsp) xorq %r12, %rdx movq 168(%rsp), %r11 xorq %r12, %r11 movq %r11, 168(%rsp) xorq %r9, %rsi movq 176(%rsp), %r11 xorq %r9, %r11 movq %r11, 176(%rsp) xorq %r10, %rdi movq 184(%rsp), %r9 xorq %r10, %r9 movq %r9, 184(%rsp) movq 112(%rsp), %r12 movq 120(%rsp), %r9 movq 128(%rsp), %r10 movq 136(%rsp), %r11 movq 144(%rsp), %rbp movq 72(%rsp), %r13 movq %r12, %r14 xorq %r13, %r14 andq %rcx, %r14 xorq %r14, %r13 xorq %r14, %r12 movq %r13, 72(%rsp) movq %r12, 112(%rsp) movq 80(%rsp), %r12 movq %r9, %r13 xorq %r12, %r13 andq %rcx, %r13 xorq %r13, %r12 xorq %r13, %r9 movq %r12, 80(%rsp) movq %r9, 120(%rsp) movq 88(%rsp), %r9 movq %r10, %r12 xorq %r9, %r12 andq %rcx, %r12 xorq %r12, %r9 xorq %r12, %r10 movq %r9, 88(%rsp) movq %r10, 128(%rsp) movq 96(%rsp), %r9 movq %r11, %r10 xorq %r9, %r10 andq %rcx, %r10 xorq %r10, %r9 xorq %r10, %r11 movq %r9, 96(%rsp) movq %r11, 136(%rsp) movq 104(%rsp), %r9 movq %rbp, %r10 xorq %r9, %r10 andq %rcx, %r10 xorq %r10, %r9 xorq %r10, %rbp movq %r9, 104(%rsp) movq %rbp, 144(%rsp) movq %r8, 8(%rsp) movq $4503599627370458, %rcx movq $4503599627370494, %r8 movq 72(%rsp), %r9 movq 80(%rsp), %r10 movq 88(%rsp), %r11 movq 96(%rsp), %rbp movq 104(%rsp), %r12 addq %rcx, %r9 addq %r8, %r10 addq %r8, %r11 addq %r8, %rbp addq %r8, %r12 subq %rbx, %r9 subq %rax, %r10 subq %rdx, %r11 subq %rsi, %rbp subq %rdi, %r12 movq %r9, 232(%rsp) movq %r10, 240(%rsp) movq %r11, 248(%rsp) movq %rbp, 256(%rsp) movq %r12, 264(%rsp) addq 72(%rsp), %rbx addq 80(%rsp), %rax addq 88(%rsp), %rdx addq 96(%rsp), %rsi addq 104(%rsp), %rdi movq %rbx, 272(%rsp) movq %rax, 280(%rsp) movq %rdx, 288(%rsp) movq %rsi, 296(%rsp) movq %rdi, 304(%rsp) movq 112(%rsp), %rax movq 120(%rsp), %rcx movq 128(%rsp), %rdx movq 136(%rsp), %rsi movq 144(%rsp), %rdi movq $4503599627370458, %r8 movq $4503599627370494, %r9 addq %r8, %rax addq %r9, %rcx addq %r9, %rdx addq %r9, %rsi addq %r9, %rdi subq 152(%rsp), %rax subq 160(%rsp), %rcx subq 168(%rsp), %rdx subq 176(%rsp), %rsi subq 184(%rsp), %rdi movq %rax, 312(%rsp) movq %rcx, 320(%rsp) movq %rdx, 328(%rsp) movq %rsi, 336(%rsp) movq %rdi, 344(%rsp) movq 112(%rsp), %rax movq 120(%rsp), %rcx movq 128(%rsp), %rdx movq 136(%rsp), %rsi movq 144(%rsp), %rdi addq 152(%rsp), %rax addq 160(%rsp), %rcx addq 168(%rsp), %rdx addq 176(%rsp), %rsi addq 184(%rsp), %rdi movq %rax, 352(%rsp) movq %rcx, 360(%rsp) movq %rdx, 368(%rsp) movq %rsi, 376(%rsp) movq %rdi, 384(%rsp) movq 296(%rsp), %rax imulq $19, %rax, %rax movq %rax, 24(%rsp) mulq 328(%rsp) movq %rax, %r12 movq %rdx, %r9 movq 304(%rsp), %rax imulq $19, %rax, %rax movq %rax, 32(%rsp) mulq 320(%rsp) addq %rax, %r12 adcq %rdx, %r9 movq 272(%rsp), %rax mulq 312(%rsp) addq %rax, %r12 adcq %rdx, %r9 movq 272(%rsp), %rax mulq 320(%rsp) movq %rax, %rsi movq %rdx, %rbx movq 272(%rsp), %rax mulq 328(%rsp) movq %rax, %r10 movq %rdx, %r8 movq 272(%rsp), %rax mulq 336(%rsp) movq %rax, %rdi movq %rdx, %rbp movq 272(%rsp), %rax mulq 344(%rsp) movq %rax, %r11 movq %rdx, %rcx movq 280(%rsp), %rax mulq 312(%rsp) addq %rax, %rsi adcq %rdx, %rbx movq 280(%rsp), %rax mulq 320(%rsp) addq %rax, %r10 adcq %rdx, %r8 movq 280(%rsp), %rax mulq 328(%rsp) addq %rax, %rdi adcq %rdx, %rbp movq 280(%rsp), %rax mulq 336(%rsp) addq %rax, %r11 adcq %rdx, %rcx movq 280(%rsp), %rax imulq $19, %rax, %rax mulq 344(%rsp) addq %rax, %r12 adcq %rdx, %r9 movq 288(%rsp), %rax mulq 312(%rsp) addq %rax, %r10 adcq %rdx, %r8 movq 288(%rsp), %rax mulq 320(%rsp) addq %rax, %rdi adcq %rdx, %rbp movq 288(%rsp), %rax mulq 328(%rsp) addq %rax, %r11 adcq %rdx, %rcx movq 288(%rsp), %rax imulq $19, %rax, %rax mulq 336(%rsp) addq %rax, %r12 adcq %rdx, %r9 movq 288(%rsp), %rax imulq $19, %rax, %rax mulq 344(%rsp) addq %rax, %rsi adcq %rdx, %rbx movq 296(%rsp), %rax mulq 312(%rsp) addq %rax, %rdi adcq %rdx, %rbp movq 296(%rsp), %rax mulq 320(%rsp) addq %rax, %r11 adcq %rdx, %rcx movq 24(%rsp), %rax mulq 336(%rsp) addq %rax, %rsi adcq %rdx, %rbx movq 24(%rsp), %rax mulq 344(%rsp) addq %rax, %r10 adcq %rdx, %r8 movq 304(%rsp), %rax mulq 312(%rsp) addq %rax, %r11 adcq %rdx, %rcx movq 32(%rsp), %rax mulq 328(%rsp) addq %rax, %rsi adcq %rdx, %rbx movq 32(%rsp), %rax mulq 336(%rsp) addq %rax, %r10 adcq %rdx, %r8 movq 32(%rsp), %rax mulq 344(%rsp) addq %rax, %rdi adcq %rdx, %rbp movq $2251799813685247, %rax shldq $13, %r12, %r9 andq %rax, %r12 shldq $13, %rsi, %rbx andq %rax, %rsi addq %r9, %rsi shldq $13, %r10, %r8 andq %rax, %r10 addq %rbx, %r10 shldq $13, %rdi, %rbp andq %rax, %rdi addq %r8, %rdi shldq $13, %r11, %rcx andq %rax, %r11 addq %rbp, %r11 imulq $19, %rcx, %rcx addq %rcx, %r12 movq %r12, %rcx shrq $51, %rcx addq %rsi, %rcx movq %rcx, %rdx shrq $51, %rcx andq %rax, %r12 addq %r10, %rcx movq %rcx, %rsi shrq $51, %rcx andq %rax, %rdx addq %rdi, %rcx movq %rcx, %rdi shrq $51, %rcx andq %rax, %rsi addq %r11, %rcx movq %rcx, %r8 shrq $51, %rcx andq %rax, %rdi imulq $19, %rcx, %rcx addq %rcx, %r12 andq %rax, %r8 movq %r12, 312(%rsp) movq %rdx, 320(%rsp) movq %rsi, 328(%rsp) movq %rdi, 336(%rsp) movq %r8, 344(%rsp) movq 376(%rsp), %rax imulq $19, %rax, %rax movq %rax, 32(%rsp) mulq 248(%rsp) movq %rax, %r10 movq %rdx, %r9 movq 384(%rsp), %rax imulq $19, %rax, %rax movq %rax, 24(%rsp) mulq 240(%rsp) addq %rax, %r10 adcq %rdx, %r9 movq 352(%rsp), %rax mulq 232(%rsp) addq %rax, %r10 adcq %rdx, %r9 movq 352(%rsp), %rax mulq 240(%rsp) movq %rax, %rdi movq %rdx, %rbx movq 352(%rsp), %rax mulq 248(%rsp) movq %rax, %rsi movq %rdx, %rcx movq 352(%rsp), %rax mulq 256(%rsp) movq %rax, %r12 movq %rdx, %r8 movq 352(%rsp), %rax mulq 264(%rsp) movq %rax, %r11 movq %rdx, %rbp movq 360(%rsp), %rax mulq 232(%rsp) addq %rax, %rdi adcq %rdx, %rbx movq 360(%rsp), %rax mulq 240(%rsp) addq %rax, %rsi adcq %rdx, %rcx movq 360(%rsp), %rax mulq 248(%rsp) addq %rax, %r12 adcq %rdx, %r8 movq 360(%rsp), %rax mulq 256(%rsp) addq %rax, %r11 adcq %rdx, %rbp movq 360(%rsp), %rax imulq $19, %rax, %rax mulq 264(%rsp) addq %rax, %r10 adcq %rdx, %r9 movq 368(%rsp), %rax mulq 232(%rsp) addq %rax, %rsi adcq %rdx, %rcx movq 368(%rsp), %rax mulq 240(%rsp) addq %rax, %r12 adcq %rdx, %r8 movq 368(%rsp), %rax mulq 248(%rsp) addq %rax, %r11 adcq %rdx, %rbp movq 368(%rsp), %rax imulq $19, %rax, %rax mulq 256(%rsp) addq %rax, %r10 adcq %rdx, %r9 movq 368(%rsp), %rax imulq $19, %rax, %rax mulq 264(%rsp) addq %rax, %rdi adcq %rdx, %rbx movq 376(%rsp), %rax mulq 232(%rsp) addq %rax, %r12 adcq %rdx, %r8 movq 376(%rsp), %rax mulq 240(%rsp) addq %rax, %r11 adcq %rdx, %rbp movq 32(%rsp), %rax mulq 256(%rsp) addq %rax, %rdi adcq %rdx, %rbx movq 32(%rsp), %rax mulq 264(%rsp) addq %rax, %rsi adcq %rdx, %rcx movq 384(%rsp), %rax mulq 232(%rsp) addq %rax, %r11 adcq %rdx, %rbp movq 24(%rsp), %rax mulq 248(%rsp) addq %rax, %rdi adcq %rdx, %rbx movq 24(%rsp), %rax mulq 256(%rsp) addq %rax, %rsi adcq %rdx, %rcx movq 24(%rsp), %rax mulq 264(%rsp) addq %rax, %r12 adcq %rdx, %r8 movq $2251799813685247, %rax shldq $13, %r10, %r9 andq %rax, %r10 shldq $13, %rdi, %rbx andq %rax, %rdi addq %r9, %rdi shldq $13, %rsi, %rcx andq %rax, %rsi addq %rbx, %rsi shldq $13, %r12, %r8 andq %rax, %r12 addq %rcx, %r12 shldq $13, %r11, %rbp andq %rax, %r11 addq %r8, %r11 imulq $19, %rbp, %rcx addq %rcx, %r10 movq %r10, %rcx shrq $51, %rcx addq %rdi, %rcx movq %rcx, %rdx shrq $51, %rcx andq %rax, %r10 addq %rsi, %rcx movq %rcx, %rsi shrq $51, %rcx andq %rax, %rdx addq %r12, %rcx movq %rcx, %rdi shrq $51, %rcx andq %rax, %rsi addq %r11, %rcx movq %rcx, %r8 shrq $51, %rcx andq %rax, %rdi imulq $19, %rcx, %rcx addq %rcx, %r10 andq %rax, %r8 movq %r10, 352(%rsp) movq %rdx, 360(%rsp) movq %rsi, 368(%rsp) movq %rdi, 376(%rsp) movq %r8, 384(%rsp) movq 272(%rsp), %rax mulq 272(%rsp) movq %rax, %r11 movq %rdx, %rbx movq 272(%rsp), %rax shlq $1, %rax mulq 280(%rsp) movq %rax, %r12 movq %rdx, %r9 movq 272(%rsp), %rax shlq $1, %rax mulq 288(%rsp) movq %rax, %rdi movq %rdx, %rcx movq 272(%rsp), %rax shlq $1, %rax mulq 296(%rsp) movq %rax, %rsi movq %rdx, %r10 movq 272(%rsp), %rax shlq $1, %rax mulq 304(%rsp) movq %rax, %rbp movq %rdx, %r8 movq 280(%rsp), %rax mulq 280(%rsp) addq %rax, %rdi adcq %rdx, %rcx movq 280(%rsp), %rax shlq $1, %rax mulq 288(%rsp) addq %rax, %rsi adcq %rdx, %r10 movq 280(%rsp), %rax shlq $1, %rax mulq 296(%rsp) addq %rax, %rbp adcq %rdx, %r8 movq 280(%rsp), %rax imulq $38, %rax, %rax mulq 304(%rsp) addq %rax, %r11 adcq %rdx, %rbx movq 288(%rsp), %rax mulq 288(%rsp) addq %rax, %rbp adcq %rdx, %r8 movq 288(%rsp), %rax imulq $38, %rax, %rax mulq 296(%rsp) addq %rax, %r11 adcq %rdx, %rbx movq 288(%rsp), %rax imulq $38, %rax, %rax mulq 304(%rsp) addq %rax, %r12 adcq %rdx, %r9 movq 296(%rsp), %rax imulq $19, %rax, %rax mulq 296(%rsp) addq %rax, %r12 adcq %rdx, %r9 movq 296(%rsp), %rax imulq $38, %rax, %rax mulq 304(%rsp) addq %rax, %rdi adcq %rdx, %rcx movq 304(%rsp), %rax imulq $19, %rax, %rax mulq 304(%rsp) addq %rax, %rsi adcq %rdx, %r10 movq $2251799813685247, %rax shldq $13, %r11, %rbx andq %rax, %r11 shldq $13, %r12, %r9 andq %rax, %r12 addq %rbx, %r12 shldq $13, %rdi, %rcx andq %rax, %rdi addq %r9, %rdi shldq $13, %rsi, %r10 andq %rax, %rsi addq %rcx, %rsi shldq $13, %rbp, %r8 andq %rax, %rbp addq %r10, %rbp imulq $19, %r8, %rcx addq %rcx, %r11 movq %r11, %rcx shrq $51, %rcx addq %r12, %rcx andq %rax, %r11 movq %rcx, %rdx shrq $51, %rcx addq %rdi, %rcx andq %rax, %rdx movq %rcx, %rdi shrq $51, %rcx addq %rsi, %rcx andq %rax, %rdi movq %rcx, %rsi shrq $51, %rcx addq %rbp, %rcx andq %rax, %rsi movq %rcx, %r8 shrq $51, %rcx imulq $19, %rcx, %rcx addq %rcx, %r11 andq %rax, %r8 movq %r11, 272(%rsp) movq %rdx, 280(%rsp) movq %rdi, 288(%rsp) movq %rsi, 296(%rsp) movq %r8, 304(%rsp) movq 232(%rsp), %rax mulq 232(%rsp) movq %rax, %rcx movq %rdx, %rsi movq 232(%rsp), %rax shlq $1, %rax mulq 240(%rsp) movq %rax, %rbp movq %rdx, %r10 movq 232(%rsp), %rax shlq $1, %rax mulq 248(%rsp) movq %rax, %rdi movq %rdx, %r11 movq 232(%rsp), %rax shlq $1, %rax mulq 256(%rsp) movq %rax, %r12 movq %rdx, %r8 movq 232(%rsp), %rax shlq $1, %rax mulq 264(%rsp) movq %rax, %rbx movq %rdx, %r9 movq 240(%rsp), %rax mulq 240(%rsp) addq %rax, %rdi adcq %rdx, %r11 movq 240(%rsp), %rax shlq $1, %rax mulq 248(%rsp) addq %rax, %r12 adcq %rdx, %r8 movq 240(%rsp), %rax shlq $1, %rax mulq 256(%rsp) addq %rax, %rbx adcq %rdx, %r9 movq 240(%rsp), %rax imulq $38, %rax, %rax mulq 264(%rsp) addq %rax, %rcx adcq %rdx, %rsi movq 248(%rsp), %rax mulq 248(%rsp) addq %rax, %rbx adcq %rdx, %r9 movq 248(%rsp), %rax imulq $38, %rax, %rax mulq 256(%rsp) addq %rax, %rcx adcq %rdx, %rsi movq 248(%rsp), %rax imulq $38, %rax, %rax mulq 264(%rsp) addq %rax, %rbp adcq %rdx, %r10 movq 256(%rsp), %rax imulq $19, %rax, %rax mulq 256(%rsp) addq %rax, %rbp adcq %rdx, %r10 movq 256(%rsp), %rax imulq $38, %rax, %rax mulq 264(%rsp) addq %rax, %rdi adcq %rdx, %r11 movq 264(%rsp), %rax imulq $19, %rax, %rax mulq 264(%rsp) addq %rax, %r12 adcq %rdx, %r8 movq $2251799813685247, %rax shldq $13, %rcx, %rsi andq %rax, %rcx shldq $13, %rbp, %r10 andq %rax, %rbp addq %rsi, %rbp shldq $13, %rdi, %r11 andq %rax, %rdi addq %r10, %rdi shldq $13, %r12, %r8 andq %rax, %r12 addq %r11, %r12 shldq $13, %rbx, %r9 andq %rax, %rbx addq %r8, %rbx imulq $19, %r9, %rdx addq %rdx, %rcx movq %rcx, %rdx shrq $51, %rdx addq %rbp, %rdx andq %rax, %rcx movq %rdx, %rsi shrq $51, %rdx addq %rdi, %rdx andq %rax, %rsi movq %rdx, %rdi shrq $51, %rdx addq %r12, %rdx andq %rax, %rdi movq %rdx, %r8 shrq $51, %rdx addq %rbx, %rdx andq %rax, %r8 movq %rdx, %r9 shrq $51, %rdx imulq $19, %rdx, %rdx addq %rdx, %rcx andq %rax, %r9 movq %rcx, 232(%rsp) movq %rsi, 240(%rsp) movq %rdi, 248(%rsp) movq %r8, 256(%rsp) movq %r9, 264(%rsp) movq 312(%rsp), %rax movq 320(%rsp), %rcx movq 328(%rsp), %rdx movq 336(%rsp), %rsi movq 344(%rsp), %rdi addq 352(%rsp), %rax addq 360(%rsp), %rcx addq 368(%rsp), %rdx addq 376(%rsp), %rsi addq 384(%rsp), %rdi movq %rax, 392(%rsp) movq %rcx, 400(%rsp) movq %rdx, 408(%rsp) movq %rsi, 416(%rsp) movq %rdi, 424(%rsp) movq 312(%rsp), %rax movq 320(%rsp), %rcx movq 328(%rsp), %rdx movq 336(%rsp), %rsi movq 344(%rsp), %rdi movq $4503599627370458, %r8 movq $4503599627370494, %r9 addq %r8, %rax addq %r9, %rcx addq %r9, %rdx addq %r9, %rsi addq %r9, %rdi subq 352(%rsp), %rax subq 360(%rsp), %rcx subq 368(%rsp), %rdx subq 376(%rsp), %rsi subq 384(%rsp), %rdi movq %rax, 352(%rsp) movq %rcx, 360(%rsp) movq %rdx, 368(%rsp) movq %rsi, 376(%rsp) movq %rdi, 384(%rsp) movq 296(%rsp), %rax imulq $19, %rax, %rax movq %rax, 24(%rsp) mulq 248(%rsp) movq %rax, %r8 movq %rdx, %r11 movq 304(%rsp), %rax imulq $19, %rax, %rax movq %rax, 32(%rsp) mulq 240(%rsp) addq %rax, %r8 adcq %rdx, %r11 movq 272(%rsp), %rax mulq 232(%rsp) addq %rax, %r8 adcq %rdx, %r11 movq 272(%rsp), %rax mulq 240(%rsp) movq %rax, %r10 movq %rdx, %rbx movq 272(%rsp), %rax mulq 248(%rsp) movq %rax, %rdi movq %rdx, %rcx movq 272(%rsp), %rax mulq 256(%rsp) movq %rax, %rsi movq %rdx, %r12 movq 272(%rsp), %rax mulq 264(%rsp) movq %rax, %rbp movq %rdx, %r9 movq 280(%rsp), %rax mulq 232(%rsp) addq %rax, %r10 adcq %rdx, %rbx movq 280(%rsp), %rax mulq 240(%rsp) addq %rax, %rdi adcq %rdx, %rcx movq 280(%rsp), %rax mulq 248(%rsp) addq %rax, %rsi adcq %rdx, %r12 movq 280(%rsp), %rax mulq 256(%rsp) addq %rax, %rbp adcq %rdx, %r9 movq 280(%rsp), %rax imulq $19, %rax, %rax mulq 264(%rsp) addq %rax, %r8 adcq %rdx, %r11 movq 288(%rsp), %rax mulq 232(%rsp) addq %rax, %rdi adcq %rdx, %rcx movq 288(%rsp), %rax mulq 240(%rsp) addq %rax, %rsi adcq %rdx, %r12 movq 288(%rsp), %rax mulq 248(%rsp) addq %rax, %rbp adcq %rdx, %r9 movq 288(%rsp), %rax imulq $19, %rax, %rax mulq 256(%rsp) addq %rax, %r8 adcq %rdx, %r11 movq 288(%rsp), %rax imulq $19, %rax, %rax mulq 264(%rsp) addq %rax, %r10 adcq %rdx, %rbx movq 296(%rsp), %rax mulq 232(%rsp) addq %rax, %rsi adcq %rdx, %r12 movq 296(%rsp), %rax mulq 240(%rsp) addq %rax, %rbp adcq %rdx, %r9 movq 24(%rsp), %rax mulq 256(%rsp) addq %rax, %r10 adcq %rdx, %rbx movq 24(%rsp), %rax mulq 264(%rsp) addq %rax, %rdi adcq %rdx, %rcx movq 304(%rsp), %rax mulq 232(%rsp) addq %rax, %rbp adcq %rdx, %r9 movq 32(%rsp), %rax mulq 248(%rsp) addq %rax, %r10 adcq %rdx, %rbx movq 32(%rsp), %rax mulq 256(%rsp) addq %rax, %rdi adcq %rdx, %rcx movq 32(%rsp), %rax mulq 264(%rsp) addq %rax, %rsi adcq %rdx, %r12 movq $2251799813685247, %rax shldq $13, %r8, %r11 andq %rax, %r8 shldq $13, %r10, %rbx andq %rax, %r10 addq %r11, %r10 shldq $13, %rdi, %rcx andq %rax, %rdi addq %rbx, %rdi shldq $13, %rsi, %r12 andq %rax, %rsi addq %rcx, %rsi shldq $13, %rbp, %r9 andq %rax, %rbp addq %r12, %rbp imulq $19, %r9, %rcx addq %rcx, %r8 movq %r8, %rcx shrq $51, %rcx addq %r10, %rcx movq %rcx, %rdx shrq $51, %rcx andq %rax, %r8 addq %rdi, %rcx movq %rcx, %rdi shrq $51, %rcx andq %rax, %rdx addq %rsi, %rcx movq %rcx, %rsi shrq $51, %rcx andq %rax, %rdi addq %rbp, %rcx movq %rcx, %r9 shrq $51, %rcx andq %rax, %rsi imulq $19, %rcx, %rcx addq %rcx, %r8 andq %rax, %r9 movq %r8, 72(%rsp) movq %rdx, 80(%rsp) movq %rdi, 88(%rsp) movq %rsi, 96(%rsp) movq %r9, 104(%rsp) movq 272(%rsp), %rax movq 280(%rsp), %rcx movq 288(%rsp), %rdx movq 296(%rsp), %rsi movq 304(%rsp), %rdi movq $4503599627370458, %r8 movq $4503599627370494, %r9 addq %r8, %rax addq %r9, %rcx addq %r9, %rdx addq %r9, %rsi addq %r9, %rdi subq 232(%rsp), %rax subq 240(%rsp), %rcx subq 248(%rsp), %rdx subq 256(%rsp), %rsi subq 264(%rsp), %rdi movq %rax, 232(%rsp) movq %rcx, 240(%rsp) movq %rdx, 248(%rsp) movq %rsi, 256(%rsp) movq %rdi, 264(%rsp) movq 352(%rsp), %rax mulq 352(%rsp) movq %rax, %rcx movq %rdx, %r8 movq 352(%rsp), %rax shlq $1, %rax mulq 360(%rsp) movq %rax, %r9 movq %rdx, %r11 movq 352(%rsp), %rax shlq $1, %rax mulq 368(%rsp) movq %rax, %rdi movq %rdx, %r10 movq 352(%rsp), %rax shlq $1, %rax mulq 376(%rsp) movq %rax, %rbx movq %rdx, %rbp movq 352(%rsp), %rax shlq $1, %rax mulq 384(%rsp) movq %rax, %r12 movq %rdx, %rsi movq 360(%rsp), %rax mulq 360(%rsp) addq %rax, %rdi adcq %rdx, %r10 movq 360(%rsp), %rax shlq $1, %rax mulq 368(%rsp) addq %rax, %rbx adcq %rdx, %rbp movq 360(%rsp), %rax shlq $1, %rax mulq 376(%rsp) addq %rax, %r12 adcq %rdx, %rsi movq 360(%rsp), %rax imulq $38, %rax, %rax mulq 384(%rsp) addq %rax, %rcx adcq %rdx, %r8 movq 368(%rsp), %rax mulq 368(%rsp) addq %rax, %r12 adcq %rdx, %rsi movq 368(%rsp), %rax imulq $38, %rax, %rax mulq 376(%rsp) addq %rax, %rcx adcq %rdx, %r8 movq 368(%rsp), %rax imulq $38, %rax, %rax mulq 384(%rsp) addq %rax, %r9 adcq %rdx, %r11 movq 376(%rsp), %rax imulq $19, %rax, %rax mulq 376(%rsp) addq %rax, %r9 adcq %rdx, %r11 movq 376(%rsp), %rax imulq $38, %rax, %rax mulq 384(%rsp) addq %rax, %rdi adcq %rdx, %r10 movq 384(%rsp), %rax imulq $19, %rax, %rax mulq 384(%rsp) addq %rax, %rbx adcq %rdx, %rbp movq $2251799813685247, %rax shldq $13, %rcx, %r8 andq %rax, %rcx shldq $13, %r9, %r11 andq %rax, %r9 addq %r8, %r9 shldq $13, %rdi, %r10 andq %rax, %rdi addq %r11, %rdi shldq $13, %rbx, %rbp andq %rax, %rbx addq %r10, %rbx shldq $13, %r12, %rsi andq %rax, %r12 addq %rbp, %r12 imulq $19, %rsi, %rdx addq %rdx, %rcx movq %rcx, %rdx shrq $51, %rdx addq %r9, %rdx andq %rax, %rcx movq %rdx, %rsi shrq $51, %rdx addq %rdi, %rdx andq %rax, %rsi movq %rdx, %rdi shrq $51, %rdx addq %rbx, %rdx andq %rax, %rdi movq %rdx, %r8 shrq $51, %rdx addq %r12, %rdx andq %rax, %r8 movq %rdx, %r9 shrq $51, %rdx imulq $19, %rdx, %rdx addq %rdx, %rcx andq %rax, %r9 movq %rcx, 352(%rsp) movq %rsi, 360(%rsp) movq %rdi, 368(%rsp) movq %r8, 376(%rsp) movq %r9, 384(%rsp) movq $996679680, %rcx movq 232(%rsp), %rax mulq %rcx shrq $13, %rax movq %rax, %rsi movq %rdx, %rdi movq 240(%rsp), %rax mulq %rcx shrq $13, %rax addq %rax, %rdi movq %rdx, %r8 movq 248(%rsp), %rax mulq %rcx shrq $13, %rax addq %rax, %r8 movq %rdx, %r9 movq 256(%rsp), %rax mulq %rcx shrq $13, %rax addq %rax, %r9 movq %rdx, %r10 movq 264(%rsp), %rax mulq %rcx shrq $13, %rax addq %rax, %r10 imulq $19, %rdx, %rax addq %rax, %rsi addq 272(%rsp), %rsi addq 280(%rsp), %rdi addq 288(%rsp), %r8 addq 296(%rsp), %r9 addq 304(%rsp), %r10 movq %rsi, 272(%rsp) movq %rdi, 280(%rsp) movq %r8, 288(%rsp) movq %r9, 296(%rsp) movq %r10, 304(%rsp) movq 392(%rsp), %rax mulq 392(%rsp) movq %rax, %rsi movq %rdx, %r10 movq 392(%rsp), %rax shlq $1, %rax mulq 400(%rsp) movq %rax, %rbx movq %rdx, %rcx movq 392(%rsp), %rax shlq $1, %rax mulq 408(%rsp) movq %rax, %r11 movq %rdx, %rbp movq 392(%rsp), %rax shlq $1, %rax mulq 416(%rsp) movq %rax, %r12 movq %rdx, %r9 movq 392(%rsp), %rax shlq $1, %rax mulq 424(%rsp) movq %rax, %rdi movq %rdx, %r8 movq 400(%rsp), %rax mulq 400(%rsp) addq %rax, %r11 adcq %rdx, %rbp movq 400(%rsp), %rax shlq $1, %rax mulq 408(%rsp) addq %rax, %r12 adcq %rdx, %r9 movq 400(%rsp), %rax shlq $1, %rax mulq 416(%rsp) addq %rax, %rdi adcq %rdx, %r8 movq 400(%rsp), %rax imulq $38, %rax, %rax mulq 424(%rsp) addq %rax, %rsi adcq %rdx, %r10 movq 408(%rsp), %rax mulq 408(%rsp) addq %rax, %rdi adcq %rdx, %r8 movq 408(%rsp), %rax imulq $38, %rax, %rax mulq 416(%rsp) addq %rax, %rsi adcq %rdx, %r10 movq 408(%rsp), %rax imulq $38, %rax, %rax mulq 424(%rsp) addq %rax, %rbx adcq %rdx, %rcx movq 416(%rsp), %rax imulq $19, %rax, %rax mulq 416(%rsp) addq %rax, %rbx adcq %rdx, %rcx movq 416(%rsp), %rax imulq $38, %rax, %rax mulq 424(%rsp) addq %rax, %r11 adcq %rdx, %rbp movq 424(%rsp), %rax imulq $19, %rax, %rax mulq 424(%rsp) addq %rax, %r12 adcq %rdx, %r9 movq $2251799813685247, %rax shldq $13, %rsi, %r10 andq %rax, %rsi shldq $13, %rbx, %rcx andq %rax, %rbx addq %r10, %rbx shldq $13, %r11, %rbp andq %rax, %r11 addq %rcx, %r11 shldq $13, %r12, %r9 andq %rax, %r12 addq %rbp, %r12 shldq $13, %rdi, %r8 andq %rax, %rdi addq %r9, %rdi imulq $19, %r8, %rcx addq %rcx, %rsi movq %rsi, %rcx shrq $51, %rcx addq %rbx, %rcx andq %rax, %rsi movq %rcx, %rdx shrq $51, %rcx addq %r11, %rcx andq %rax, %rdx movq %rcx, %r8 shrq $51, %rcx addq %r12, %rcx andq %rax, %r8 movq %rcx, %r9 shrq $51, %rcx addq %rdi, %rcx andq %rax, %r9 movq %rcx, %rdi shrq $51, %rcx imulq $19, %rcx, %rcx addq %rcx, %rsi andq %rax, %rdi movq %rsi, 112(%rsp) movq %rdx, 120(%rsp) movq %r8, 128(%rsp) movq %r9, 136(%rsp) movq %rdi, 144(%rsp) movq 216(%rsp), %rax imulq $19, %rax, %rax movq %rax, 32(%rsp) mulq 368(%rsp) movq %rax, %r9 movq %rdx, %rsi movq 224(%rsp), %rax imulq $19, %rax, %rax movq %rax, 24(%rsp) mulq 360(%rsp) addq %rax, %r9 adcq %rdx, %rsi movq 192(%rsp), %rax mulq 352(%rsp) addq %rax, %r9 adcq %rdx, %rsi movq 192(%rsp), %rax mulq 360(%rsp) movq %rax, %r10 movq %rdx, %rcx movq 192(%rsp), %rax mulq 368(%rsp) movq %rax, %rbx movq %rdx, %r12 movq 192(%rsp), %rax mulq 376(%rsp) movq %rax, %rdi movq %rdx, %rbp movq 192(%rsp), %rax mulq 384(%rsp) movq %rax, %r8 movq %rdx, %r11 movq 200(%rsp), %rax mulq 352(%rsp) addq %rax, %r10 adcq %rdx, %rcx movq 200(%rsp), %rax mulq 360(%rsp) addq %rax, %rbx adcq %rdx, %r12 movq 200(%rsp), %rax mulq 368(%rsp) addq %rax, %rdi adcq %rdx, %rbp movq 200(%rsp), %rax mulq 376(%rsp) addq %rax, %r8 adcq %rdx, %r11 movq 200(%rsp), %rax imulq $19, %rax, %rax mulq 384(%rsp) addq %rax, %r9 adcq %rdx, %rsi movq 208(%rsp), %rax mulq 352(%rsp) addq %rax, %rbx adcq %rdx, %r12 movq 208(%rsp), %rax mulq 360(%rsp) addq %rax, %rdi adcq %rdx, %rbp movq 208(%rsp), %rax mulq 368(%rsp) addq %rax, %r8 adcq %rdx, %r11 movq 208(%rsp), %rax imulq $19, %rax, %rax mulq 376(%rsp) addq %rax, %r9 adcq %rdx, %rsi movq 208(%rsp), %rax imulq $19, %rax, %rax mulq 384(%rsp) addq %rax, %r10 adcq %rdx, %rcx movq 216(%rsp), %rax mulq 352(%rsp) addq %rax, %rdi adcq %rdx, %rbp movq 216(%rsp), %rax mulq 360(%rsp) addq %rax, %r8 adcq %rdx, %r11 movq 32(%rsp), %rax mulq 376(%rsp) addq %rax, %r10 adcq %rdx, %rcx movq 32(%rsp), %rax mulq 384(%rsp) addq %rax, %rbx adcq %rdx, %r12 movq 224(%rsp), %rax mulq 352(%rsp) addq %rax, %r8 adcq %rdx, %r11 movq 24(%rsp), %rax mulq 368(%rsp) addq %rax, %r10 adcq %rdx, %rcx movq 24(%rsp), %rax mulq 376(%rsp) addq %rax, %rbx adcq %rdx, %r12 movq 24(%rsp), %rax mulq 384(%rsp) addq %rax, %rdi adcq %rdx, %rbp movq $2251799813685247, %rax shldq $13, %r9, %rsi andq %rax, %r9 shldq $13, %r10, %rcx andq %rax, %r10 addq %rsi, %r10 shldq $13, %rbx, %r12 andq %rax, %rbx addq %rcx, %rbx shldq $13, %rdi, %rbp andq %rax, %rdi addq %r12, %rdi shldq $13, %r8, %r11 andq %rax, %r8 addq %rbp, %r8 imulq $19, %r11, %rcx addq %rcx, %r9 movq %r9, %rcx shrq $51, %rcx addq %r10, %rcx movq %rcx, %rdx shrq $51, %rcx andq %rax, %r9 addq %rbx, %rcx movq %rcx, %rsi shrq $51, %rcx andq %rax, %rdx addq %rdi, %rcx movq %rcx, %rdi shrq $51, %rcx andq %rax, %rsi addq %r8, %rcx movq %rcx, %r8 shrq $51, %rcx andq %rax, %rdi imulq $19, %rcx, %rcx addq %rcx, %r9 andq %rax, %r8 movq %r9, 152(%rsp) movq %rdx, 160(%rsp) movq %rsi, 168(%rsp) movq %rdi, 176(%rsp) movq %r8, 184(%rsp) movq 256(%rsp), %rax imulq $19, %rax, %rax movq %rax, 24(%rsp) mulq 288(%rsp) movq %rax, %rbx movq %rdx, %r12 movq 264(%rsp), %rax imulq $19, %rax, %rax movq %rax, 32(%rsp) mulq 280(%rsp) addq %rax, %rbx adcq %rdx, %r12 movq 232(%rsp), %rax mulq 272(%rsp) addq %rax, %rbx adcq %rdx, %r12 movq 232(%rsp), %rax mulq 280(%rsp) movq %rax, %r11 movq %rdx, %rsi movq 232(%rsp), %rax mulq 288(%rsp) movq %rax, %r8 movq %rdx, %r9 movq 232(%rsp), %rax mulq 296(%rsp) movq %rax, %rcx movq %rdx, %rdi movq 232(%rsp), %rax mulq 304(%rsp) movq %rax, %r10 movq %rdx, %rbp movq 240(%rsp), %rax mulq 272(%rsp) addq %rax, %r11 adcq %rdx, %rsi movq 240(%rsp), %rax mulq 280(%rsp) addq %rax, %r8 adcq %rdx, %r9 movq 240(%rsp), %rax mulq 288(%rsp) addq %rax, %rcx adcq %rdx, %rdi movq 240(%rsp), %rax mulq 296(%rsp) addq %rax, %r10 adcq %rdx, %rbp movq 240(%rsp), %rax imulq $19, %rax, %rax mulq 304(%rsp) addq %rax, %rbx adcq %rdx, %r12 movq 248(%rsp), %rax mulq 272(%rsp) addq %rax, %r8 adcq %rdx, %r9 movq 248(%rsp), %rax mulq 280(%rsp) addq %rax, %rcx adcq %rdx, %rdi movq 248(%rsp), %rax mulq 288(%rsp) addq %rax, %r10 adcq %rdx, %rbp movq 248(%rsp), %rax imulq $19, %rax, %rax mulq 296(%rsp) addq %rax, %rbx adcq %rdx, %r12 movq 248(%rsp), %rax imulq $19, %rax, %rax mulq 304(%rsp) addq %rax, %r11 adcq %rdx, %rsi movq 256(%rsp), %rax mulq 272(%rsp) addq %rax, %rcx adcq %rdx, %rdi movq 256(%rsp), %rax mulq 280(%rsp) addq %rax, %r10 adcq %rdx, %rbp movq 24(%rsp), %rax mulq 296(%rsp) addq %rax, %r11 adcq %rdx, %rsi movq 24(%rsp), %rax mulq 304(%rsp) addq %rax, %r8 adcq %rdx, %r9 movq 264(%rsp), %rax mulq 272(%rsp) addq %rax, %r10 adcq %rdx, %rbp movq 32(%rsp), %rax mulq 288(%rsp) addq %rax, %r11 adcq %rdx, %rsi movq 32(%rsp), %rax mulq 296(%rsp) addq %rax, %r8 adcq %rdx, %r9 movq 32(%rsp), %rax mulq 304(%rsp) addq %rax, %rcx adcq %rdx, %rdi movq $2251799813685247, %r13 shldq $13, %rbx, %r12 andq %r13, %rbx shldq $13, %r11, %rsi andq %r13, %r11 addq %r12, %r11 shldq $13, %r8, %r9 andq %r13, %r8 addq %rsi, %r8 shldq $13, %rcx, %rdi andq %r13, %rcx addq %r9, %rcx shldq $13, %r10, %rbp andq %r13, %r10 addq %rdi, %r10 imulq $19, %rbp, %rax addq %rax, %rbx movq %rbx, %r9 shrq $51, %r9 addq %r11, %r9 movq %r9, %rax shrq $51, %r9 andq %r13, %rbx addq %r8, %r9 movq %r9, %rdx shrq $51, %r9 andq %r13, %rax addq %rcx, %r9 movq %r9, %rsi shrq $51, %r9 andq %r13, %rdx addq %r10, %r9 movq %r9, %rdi shrq $51, %r9 andq %r13, %rsi imulq $19, %r9, %rcx addq %rcx, %rbx andq %r13, %rdi movq 16(%rsp), %rcx cmpq $0, %rcx jnbe Ljade_scalarmult_curve25519_amd64_ref5$28 movq %rbx, 152(%rsp) movq %rax, 160(%rsp) movq %rdx, 168(%rsp) movq %rsi, 176(%rsp) movq %rdi, 184(%rsp) movq 152(%rsp), %rax movq %rax, 112(%rsp) movq 160(%rsp), %rax movq %rax, 120(%rsp) movq 168(%rsp), %rax movq %rax, 128(%rsp) movq 176(%rsp), %rax movq %rax, 136(%rsp) movq 184(%rsp), %rax movq %rax, 144(%rsp) leaq 112(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$27(%rip), %rax movq %rax, (%rsp) jmp L_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5$27: leaq 8(%rsp), %rsp movq 112(%rsp), %rax movq %rax, 192(%rsp) movq 120(%rsp), %rax movq %rax, 200(%rsp) movq 128(%rsp), %rax movq %rax, 208(%rsp) movq 136(%rsp), %rax movq %rax, 216(%rsp) movq 144(%rsp), %rax movq %rax, 224(%rsp) leaq 192(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$26(%rip), %rax movq %rax, (%rsp) jmp L_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5$26: leaq 8(%rsp), %rsp leaq 192(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$25(%rip), %rax movq %rax, (%rsp) jmp L_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5$25: leaq 8(%rsp), %rsp leaq 192(%rsp), %r9 leaq 152(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$24(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5$24: leaq 24(%rsp), %rsp leaq 112(%rsp), %r9 leaq 192(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$23(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5$23: leaq 24(%rsp), %rsp movq 112(%rsp), %rax movq %rax, 152(%rsp) movq 120(%rsp), %rax movq %rax, 160(%rsp) movq 128(%rsp), %rax movq %rax, 168(%rsp) movq 136(%rsp), %rax movq %rax, 176(%rsp) movq 144(%rsp), %rax movq %rax, 184(%rsp) leaq 152(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$22(%rip), %rax movq %rax, (%rsp) jmp L_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5$22: leaq 8(%rsp), %rsp leaq 192(%rsp), %r9 leaq 152(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$21(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5$21: leaq 24(%rsp), %rsp movq 192(%rsp), %rax movq %rax, 152(%rsp) movq 200(%rsp), %rax movq %rax, 160(%rsp) movq 208(%rsp), %rax movq %rax, 168(%rsp) movq 216(%rsp), %rax movq %rax, 176(%rsp) movq 224(%rsp), %rax movq %rax, 184(%rsp) leaq 152(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$20(%rip), %rax movq %rax, (%rsp) jmp L_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5$20: leaq 8(%rsp), %rsp movl $4, %r13d leaq 152(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$19(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5$19: leaq 8(%rsp), %rsp leaq 192(%rsp), %r9 leaq 152(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$18(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5$18: leaq 24(%rsp), %rsp movl $10, %r13d movq 192(%rsp), %rax movq %rax, 152(%rsp) movq 200(%rsp), %rax movq %rax, 160(%rsp) movq 208(%rsp), %rax movq %rax, 168(%rsp) movq 216(%rsp), %rax movq %rax, 176(%rsp) movq 224(%rsp), %rax movq %rax, 184(%rsp) leaq 152(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$17(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5$17: leaq 8(%rsp), %rsp leaq 152(%rsp), %r9 leaq 192(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$16(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5$16: leaq 24(%rsp), %rsp movl $20, %r13d movq 152(%rsp), %rax movq %rax, 272(%rsp) movq 160(%rsp), %rax movq %rax, 280(%rsp) movq 168(%rsp), %rax movq %rax, 288(%rsp) movq 176(%rsp), %rax movq %rax, 296(%rsp) movq 184(%rsp), %rax movq %rax, 304(%rsp) leaq 272(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$15(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5$15: leaq 8(%rsp), %rsp leaq 152(%rsp), %r9 leaq 272(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$14(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5$14: leaq 24(%rsp), %rsp movl $10, %r13d leaq 152(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$13(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5$13: leaq 8(%rsp), %rsp leaq 192(%rsp), %r9 leaq 152(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$12(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5$12: leaq 24(%rsp), %rsp movl $50, %r13d movq 192(%rsp), %rax movq %rax, 152(%rsp) movq 200(%rsp), %rax movq %rax, 160(%rsp) movq 208(%rsp), %rax movq %rax, 168(%rsp) movq 216(%rsp), %rax movq %rax, 176(%rsp) movq 224(%rsp), %rax movq %rax, 184(%rsp) leaq 152(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$11(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5$11: leaq 8(%rsp), %rsp leaq 152(%rsp), %r9 leaq 192(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$10(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5$10: leaq 24(%rsp), %rsp movl $100, %r13d movq 152(%rsp), %rax movq %rax, 272(%rsp) movq 160(%rsp), %rax movq %rax, 280(%rsp) movq 168(%rsp), %rax movq %rax, 288(%rsp) movq 176(%rsp), %rax movq %rax, 296(%rsp) movq 184(%rsp), %rax movq %rax, 304(%rsp) leaq 272(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$9(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5$9: leaq 8(%rsp), %rsp leaq 152(%rsp), %r9 leaq 272(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$8(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5$8: leaq 24(%rsp), %rsp movl $50, %r13d leaq 152(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$7(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5$7: leaq 8(%rsp), %rsp leaq 192(%rsp), %r9 leaq 152(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$6(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5$6: leaq 24(%rsp), %rsp movl $4, %r13d leaq 192(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$5(%rip), %rax movq %rax, (%rsp) jmp L_it_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5$5: leaq 8(%rsp), %rsp leaq 192(%rsp), %rdi leaq -8(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$4(%rip), %rax movq %rax, (%rsp) jmp L_sqr5_p$1 Ljade_scalarmult_curve25519_amd64_ref5$4: leaq 8(%rsp), %rsp leaq 192(%rsp), %r9 leaq 112(%rsp), %rbp leaq -24(%rsp), %rsp leaq Ljade_scalarmult_curve25519_amd64_ref5$3(%rip), %rax movq %rax, 16(%rsp) jmp L_mul5_pp$1 Ljade_scalarmult_curve25519_amd64_ref5$3: leaq 24(%rsp), %rsp movq 96(%rsp), %rax imulq $19, %rax, %rax movq %rax, 8(%rsp) mulq 208(%rsp) movq %rax, %r10 movq %rdx, %rsi movq 104(%rsp), %rax imulq $19, %rax, %rax movq %rax, 16(%rsp) mulq 200(%rsp) addq %rax, %r10 adcq %rdx, %rsi movq 72(%rsp), %rax mulq 192(%rsp) addq %rax, %r10 adcq %rdx, %rsi movq 72(%rsp), %rax mulq 200(%rsp) movq %rax, %rbp movq %rdx, %rdi movq 72(%rsp), %rax mulq 208(%rsp) movq %rax, %rcx movq %rdx, %r12 movq 72(%rsp), %rax mulq 216(%rsp) movq %rax, %r9 movq %rdx, %r11 movq 72(%rsp), %rax mulq 224(%rsp) movq %rax, %r8 movq %rdx, %rbx movq 80(%rsp), %rax mulq 192(%rsp) addq %rax, %rbp adcq %rdx, %rdi movq 80(%rsp), %rax mulq 200(%rsp) addq %rax, %rcx adcq %rdx, %r12 movq 80(%rsp), %rax mulq 208(%rsp) addq %rax, %r9 adcq %rdx, %r11 movq 80(%rsp), %rax mulq 216(%rsp) addq %rax, %r8 adcq %rdx, %rbx movq 80(%rsp), %rax imulq $19, %rax, %rax mulq 224(%rsp) addq %rax, %r10 adcq %rdx, %rsi movq 88(%rsp), %rax mulq 192(%rsp) addq %rax, %rcx adcq %rdx, %r12 movq 88(%rsp), %rax mulq 200(%rsp) addq %rax, %r9 adcq %rdx, %r11 movq 88(%rsp), %rax mulq 208(%rsp) addq %rax, %r8 adcq %rdx, %rbx movq 88(%rsp), %rax imulq $19, %rax, %rax mulq 216(%rsp) addq %rax, %r10 adcq %rdx, %rsi movq 88(%rsp), %rax imulq $19, %rax, %rax mulq 224(%rsp) addq %rax, %rbp adcq %rdx, %rdi movq 96(%rsp), %rax mulq 192(%rsp) addq %rax, %r9 adcq %rdx, %r11 movq 96(%rsp), %rax mulq 200(%rsp) addq %rax, %r8 adcq %rdx, %rbx movq 8(%rsp), %rax mulq 216(%rsp) addq %rax, %rbp adcq %rdx, %rdi movq 8(%rsp), %rax mulq 224(%rsp) addq %rax, %rcx adcq %rdx, %r12 movq 104(%rsp), %rax mulq 192(%rsp) addq %rax, %r8 adcq %rdx, %rbx movq 16(%rsp), %rax mulq 208(%rsp) addq %rax, %rbp adcq %rdx, %rdi movq 16(%rsp), %rax mulq 216(%rsp) addq %rax, %rcx adcq %rdx, %r12 movq 16(%rsp), %rax mulq 224(%rsp) addq %rax, %r9 adcq %rdx, %r11 movq $2251799813685247, %rax shldq $13, %r10, %rsi andq %rax, %r10 shldq $13, %rbp, %rdi andq %rax, %rbp addq %rsi, %rbp shldq $13, %rcx, %r12 andq %rax, %rcx addq %rdi, %rcx shldq $13, %r9, %r11 andq %rax, %r9 addq %r12, %r9 shldq $13, %r8, %rbx andq %rax, %r8 addq %r11, %r8 imulq $19, %rbx, %rdx addq %rdx, %r10 movq %r10, %r11 shrq $51, %r11 addq %rbp, %r11 movq %r11, %rdx shrq $51, %r11 andq %rax, %r10 addq %rcx, %r11 movq %r11, %rcx shrq $51, %r11 andq %rax, %rdx addq %r9, %r11 movq %r11, %rsi shrq $51, %r11 andq %rax, %rcx addq %r8, %r11 movq %r11, %rdi shrq $51, %r11 andq %rax, %rsi imulq $19, %r11, %r8 addq %r8, %r10 andq %rax, %rdi movq $2251799813685247, %rax movq %rax, %r8 addq $-18, %r8 movq $3, %r9 jmp Ljade_scalarmult_curve25519_amd64_ref5$1 Ljade_scalarmult_curve25519_amd64_ref5$2: movq %r10, %r11 shrq $51, %r11 andq %rax, %r10 addq %r11, %rdx movq %rdx, %r11 shrq $51, %r11 andq %rax, %rdx addq %r11, %rcx movq %rcx, %r11 shrq $51, %r11 andq %rax, %rcx addq %r11, %rsi movq %rsi, %r11 shrq $51, %r11 andq %rax, %rsi addq %r11, %rdi movq %rdi, %r11 shrq $51, %r11 andq %rax, %rdi imulq $19, %r11, %r11 addq %r11, %r10 addq $-1, %r9 Ljade_scalarmult_curve25519_amd64_ref5$1: cmpq $0, %r9 jnbe Ljade_scalarmult_curve25519_amd64_ref5$2 movq $1, %r11 cmpq %r8, %r10 cmovl %r9, %r11 cmpq %rax, %rdx cmovne %r9, %r11 cmpq %rax, %rcx cmovne %r9, %r11 cmpq %rax, %rsi cmovne %r9, %r11 cmpq %rax, %rdi cmovne %r9, %r11 negq %r11 andq %r11, %rax andq %r11, %r8 subq %r8, %r10 subq %rax, %rdx subq %rax, %rcx subq %rax, %rsi subq %rax, %rdi movq %rdx, %rax shlq $51, %rax orq %r10, %rax movq %rcx, %r8 shlq $38, %r8 shrq $13, %rdx orq %rdx, %r8 movq %rsi, %rdx shlq $25, %rdx shrq $26, %rcx orq %rcx, %rdx shlq $12, %rdi shrq $39, %rsi orq %rsi, %rdi movq (%rsp), %rcx movq %rax, (%rcx) movq %r8, 8(%rcx) movq %rdx, 16(%rcx) movq %rdi, 24(%rcx) xorq %rax, %rax movq 432(%rsp), %rbx movq 440(%rsp), %rbp movq 448(%rsp), %r12 movq 456(%rsp), %r13 movq 464(%rsp), %r14 movq 472(%rsp), %rsp ret L_it_sqr5_p$1: L_it_sqr5_p$2: leaq -8(%rsp), %rsp leaq L_it_sqr5_p$3(%rip), %rax movq %rax, (%rsp) jmp L_sqr5_p$1 L_it_sqr5_p$3: leaq 8(%rsp), %rsp decl %r13d jne L_it_sqr5_p$2 jmp *(%rsp) L_sqr5_p$1: movq (%rdi), %rax mulq (%rdi) movq %rax, %r8 movq %rdx, %rsi movq (%rdi), %rax shlq $1, %rax mulq 8(%rdi) movq %rax, %rbx movq %rdx, %r11 movq (%rdi), %rax shlq $1, %rax mulq 16(%rdi) movq %rax, %r10 movq %rdx, %r14 movq (%rdi), %rax shlq $1, %rax mulq 24(%rdi) movq %rax, %rbp movq %rdx, %r12 movq (%rdi), %rax shlq $1, %rax mulq 32(%rdi) movq %rax, %rcx movq %rdx, %r9 movq 8(%rdi), %rax mulq 8(%rdi) addq %rax, %r10 adcq %rdx, %r14 movq 8(%rdi), %rax shlq $1, %rax mulq 16(%rdi) addq %rax, %rbp adcq %rdx, %r12 movq 8(%rdi), %rax shlq $1, %rax mulq 24(%rdi) addq %rax, %rcx adcq %rdx, %r9 movq 8(%rdi), %rax imulq $38, %rax, %rax mulq 32(%rdi) addq %rax, %r8 adcq %rdx, %rsi movq 16(%rdi), %rax mulq 16(%rdi) addq %rax, %rcx adcq %rdx, %r9 movq 16(%rdi), %rax imulq $38, %rax, %rax mulq 24(%rdi) addq %rax, %r8 adcq %rdx, %rsi movq 16(%rdi), %rax imulq $38, %rax, %rax mulq 32(%rdi) addq %rax, %rbx adcq %rdx, %r11 movq 24(%rdi), %rax imulq $19, %rax, %rax mulq 24(%rdi) addq %rax, %rbx adcq %rdx, %r11 movq 24(%rdi), %rax imulq $38, %rax, %rax mulq 32(%rdi) addq %rax, %r10 adcq %rdx, %r14 movq 32(%rdi), %rax imulq $19, %rax, %rax mulq 32(%rdi) addq %rax, %rbp adcq %rdx, %r12 movq $2251799813685247, %rax shldq $13, %r8, %rsi andq %rax, %r8 shldq $13, %rbx, %r11 andq %rax, %rbx addq %rsi, %rbx shldq $13, %r10, %r14 andq %rax, %r10 addq %r11, %r10 shldq $13, %rbp, %r12 andq %rax, %rbp addq %r14, %rbp shldq $13, %rcx, %r9 andq %rax, %rcx addq %r12, %rcx imulq $19, %r9, %rdx addq %rdx, %r8 movq %r8, %rdx shrq $51, %rdx addq %rbx, %rdx andq %rax, %r8 movq %rdx, %rsi shrq $51, %rdx addq %r10, %rdx andq %rax, %rsi movq %rdx, %r9 shrq $51, %rdx addq %rbp, %rdx andq %rax, %r9 movq %rdx, %r10 shrq $51, %rdx addq %rcx, %rdx andq %rax, %r10 movq %rdx, %rcx shrq $51, %rdx imulq $19, %rdx, %rdx addq %rdx, %r8 andq %rax, %rcx movq %r8, (%rdi) movq %rsi, 8(%rdi) movq %r9, 16(%rdi) movq %r10, 24(%rdi) movq %rcx, 32(%rdi) jmp *(%rsp) L_mul5_pp$1: movq 24(%r9), %rax imulq $19, %rax, %rax movq %rax, (%rsp) mulq 16(%rbp) movq %rax, %rdi movq %rdx, %r8 movq 32(%r9), %rax imulq $19, %rax, %rax movq %rax, 8(%rsp) mulq 8(%rbp) addq %rax, %rdi adcq %rdx, %r8 movq (%r9), %rax mulq (%rbp) addq %rax, %rdi adcq %rdx, %r8 movq (%r9), %rax mulq 8(%rbp) movq %rax, %rbx movq %rdx, %r14 movq (%r9), %rax mulq 16(%rbp) movq %rax, %r11 movq %rdx, %rcx movq (%r9), %rax mulq 24(%rbp) movq %rax, %r10 movq %rdx, %r12 movq (%r9), %rax mulq 32(%rbp) movq %rax, %rsi movq %rdx, %r13 movq 8(%r9), %rax mulq (%rbp) addq %rax, %rbx adcq %rdx, %r14 movq 8(%r9), %rax mulq 8(%rbp) addq %rax, %r11 adcq %rdx, %rcx movq 8(%r9), %rax mulq 16(%rbp) addq %rax, %r10 adcq %rdx, %r12 movq 8(%r9), %rax mulq 24(%rbp) addq %rax, %rsi adcq %rdx, %r13 movq 8(%r9), %rax imulq $19, %rax, %rax mulq 32(%rbp) addq %rax, %rdi adcq %rdx, %r8 movq 16(%r9), %rax mulq (%rbp) addq %rax, %r11 adcq %rdx, %rcx movq 16(%r9), %rax mulq 8(%rbp) addq %rax, %r10 adcq %rdx, %r12 movq 16(%r9), %rax mulq 16(%rbp) addq %rax, %rsi adcq %rdx, %r13 movq 16(%r9), %rax imulq $19, %rax, %rax mulq 24(%rbp) addq %rax, %rdi adcq %rdx, %r8 movq 16(%r9), %rax imulq $19, %rax, %rax mulq 32(%rbp) addq %rax, %rbx adcq %rdx, %r14 movq 24(%r9), %rax mulq (%rbp) addq %rax, %r10 adcq %rdx, %r12 movq 24(%r9), %rax mulq 8(%rbp) addq %rax, %rsi adcq %rdx, %r13 movq (%rsp), %rax mulq 24(%rbp) addq %rax, %rbx adcq %rdx, %r14 movq (%rsp), %rax mulq 32(%rbp) addq %rax, %r11 adcq %rdx, %rcx movq 32(%r9), %rax mulq (%rbp) addq %rax, %rsi adcq %rdx, %r13 movq 8(%rsp), %rax mulq 16(%rbp) addq %rax, %rbx adcq %rdx, %r14 movq 8(%rsp), %rax mulq 24(%rbp) addq %rax, %r11 adcq %rdx, %rcx movq 8(%rsp), %rax mulq 32(%rbp) addq %rax, %r10 adcq %rdx, %r12 movq $2251799813685247, %rax shldq $13, %rdi, %r8 andq %rax, %rdi shldq $13, %rbx, %r14 andq %rax, %rbx addq %r8, %rbx shldq $13, %r11, %rcx andq %rax, %r11 addq %r14, %r11 shldq $13, %r10, %r12 andq %rax, %r10 addq %rcx, %r10 shldq $13, %rsi, %r13 andq %rax, %rsi addq %r12, %rsi imulq $19, %r13, %rcx addq %rcx, %rdi movq %rdi, %rcx shrq $51, %rcx addq %rbx, %rcx movq %rcx, %rdx shrq $51, %rcx andq %rax, %rdi addq %r11, %rcx movq %rcx, %r8 shrq $51, %rcx andq %rax, %rdx addq %r10, %rcx movq %rcx, %r10 shrq $51, %rcx andq %rax, %r8 addq %rsi, %rcx movq %rcx, %rsi shrq $51, %rcx andq %rax, %r10 imulq $19, %rcx, %rcx addq %rcx, %rdi andq %rax, %rsi movq %rdi, (%r9) movq %rdx, 8(%r9) movq %r8, 16(%r9) movq %r10, 24(%r9) movq %rsi, 32(%r9) jmp *16(%rsp)
verdict-x509/verdict
377,805
deps/libcrux/sys/libjade/jazz/kyber_kyber768_ref.s
.att_syntax .text .p2align 5 .globl _jade_kem_kyber_kyber768_amd64_ref_dec .globl jade_kem_kyber_kyber768_amd64_ref_dec .globl _jade_kem_kyber_kyber768_amd64_ref_enc_derand .globl jade_kem_kyber_kyber768_amd64_ref_enc_derand .globl _jade_kem_kyber_kyber768_amd64_ref_keypair_derand .globl jade_kem_kyber_kyber768_amd64_ref_keypair_derand _jade_kem_kyber_kyber768_amd64_ref_dec: jade_kem_kyber_kyber768_amd64_ref_dec: movq %rsp, %rax leaq -14560(%rsp), %rsp andq $-8, %rsp movq %rax, 14552(%rsp) movq %r15, 14504(%rsp) movq %r14, 14512(%rsp) movq %r13, 14520(%rsp) movq %r12, 14528(%rsp) movq %rbp, 14536(%rsp) movq %rbx, 14544(%rsp) movq %rdi, (%rsp) movq %rsi, 8(%rsp) leaq 80(%rsp), %rax movq $0, %rcx movq $0, %rdi jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$225 Ljade_kem_kyber_kyber768_amd64_ref_dec$226: movzbl (%rsi,%rdi), %r10d incq %rdi movzbl (%rsi,%rdi), %r11d incq %rdi movzbl (%rsi,%rdi), %r8d incq %rdi movzbl (%rsi,%rdi), %r9d incq %rdi movzbl (%rsi,%rdi), %ebx incq %rdi movl %r11d, %ebp shrl $2, %r11d andl $3, %ebp shll $8, %ebp orl %ebp, %r10d movl %r8d, %ebp shrl $4, %r8d andl $15, %ebp shll $6, %ebp orl %ebp, %r11d movl %r9d, %ebp shrl $6, %r9d andl $63, %ebp shll $4, %ebp orl %ebp, %r8d shll $2, %ebx orl %ebx, %r9d imull $3329, %r10d, %r10d addl $512, %r10d shrl $10, %r10d movw %r10w, 2456(%rsp,%rcx,2) incq %rcx imull $3329, %r11d, %r10d addl $512, %r10d shrl $10, %r10d movw %r10w, 2456(%rsp,%rcx,2) incq %rcx imull $3329, %r8d, %r8d addl $512, %r8d shrl $10, %r8d movw %r8w, 2456(%rsp,%rcx,2) incq %rcx imull $3329, %r9d, %r8d addl $512, %r8d shrl $10, %r8d movw %r8w, 2456(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$225: cmpq $768, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$226 addq $960, %rsi leaq 920(%rsp), %rcx call L_poly_decompress$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$224: movq %rdx, %rsi leaq 3992(%rsp), %rdi call L_poly_frombytes$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$223: addq $384, %rsi leaq 4504(%rsp), %rdi call L_poly_frombytes$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$222: addq $384, %rsi leaq 5016(%rsp), %rdi call L_poly_frombytes$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$221: leaq 2456(%rsp), %rcx call L_poly_ntt$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$220: leaq 2968(%rsp), %rcx call L_poly_ntt$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$219: leaq 3480(%rsp), %rcx call L_poly_ntt$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$218: leaq 408(%rsp), %rdi leaq 3992(%rsp), %rcx leaq 2456(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$217: leaq 16(%rsp), %rsp leaq 1432(%rsp), %rdi leaq 4504(%rsp), %rcx leaq 2968(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$216: leaq 16(%rsp), %rsp leaq 408(%rsp), %rcx leaq 1432(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$215: leaq 1432(%rsp), %rdi leaq 5016(%rsp), %rcx leaq 3480(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$214: leaq 16(%rsp), %rsp leaq 408(%rsp), %rcx leaq 1432(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$213: leaq 408(%rsp), %rcx movq $0, %rsi jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$211 Ljade_kem_kyber_kyber768_amd64_ref_dec$212: movw (%rcx,%rsi,2), %di movswl %di, %r8d imull $20159, %r8d, %r8d sarl $26, %r8d imull $3329, %r8d, %r8d subw %r8w, %di movw %di, (%rcx,%rsi,2) incq %rsi Ljade_kem_kyber_kyber768_amd64_ref_dec$211: cmpq $256, %rsi jb Ljade_kem_kyber_kyber768_amd64_ref_dec$212 leaq 408(%rsp), %rcx call L_poly_invntt$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$210: leaq 1432(%rsp), %rcx leaq 920(%rsp), %rsi leaq 408(%rsp), %rdi call L_poly_sub$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$209: leaq 1432(%rsp), %rcx movq $0, %rsi jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$207 Ljade_kem_kyber_kyber768_amd64_ref_dec$208: movw (%rcx,%rsi,2), %di movswl %di, %r8d imull $20159, %r8d, %r8d sarl $26, %r8d imull $3329, %r8d, %r8d subw %r8w, %di movw %di, (%rcx,%rsi,2) incq %rsi Ljade_kem_kyber_kyber768_amd64_ref_dec$207: cmpq $256, %rsi jb Ljade_kem_kyber_kyber768_amd64_ref_dec$208 leaq 1432(%rsp), %rcx call L_i_poly_tomsg$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$206: leaq 32(%rdx), %rax addq $2304, %rax movq (%rax), %rcx movq %rcx, 112(%rsp) movq 8(%rax), %rcx movq %rcx, 120(%rsp) movq 16(%rax), %rcx movq %rcx, 128(%rsp) movq 24(%rax), %rax movq %rax, 136(%rsp) movq %rdx, 16(%rsp) leaq 144(%rsp), %rax leaq 80(%rsp), %rdx leaq -208(%rsp), %rsp call L_sha3_512_64$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$205: leaq 208(%rsp), %rsp movq 16(%rsp), %rdx addq $1152, %rdx leaq 13410(%rsp), %rsi leaq 80(%rsp), %rcx leaq 176(%rsp), %rax movq %rsi, 24(%rsp) movq %rdx, %rsi leaq 2456(%rsp), %rdi call L_poly_frombytes$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$204: addq $384, %rsi leaq 2968(%rsp), %rdi call L_poly_frombytes$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$203: addq $384, %rsi leaq 3480(%rsp), %rdi call L_poly_frombytes$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$202: movq $0, %rsi addq $1152, %rdx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$200 Ljade_kem_kyber_kyber768_amd64_ref_dec$201: movq (%rdx), %rdi movq %rdi, 48(%rsp,%rsi,8) addq $8, %rdx incq %rsi Ljade_kem_kyber_kyber768_amd64_ref_dec$200: cmpq $4, %rsi jb Ljade_kem_kyber_kyber768_amd64_ref_dec$201 leaq 1432(%rsp), %rdx call L_i_poly_frommsg$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$199: movq $1, %rcx movq %rcx, 32(%rsp) movb 48(%rsp), %cl movb %cl, 13208(%rsp) movb 49(%rsp), %cl movb %cl, 13209(%rsp) movb 50(%rsp), %cl movb %cl, 13210(%rsp) movb 51(%rsp), %cl movb %cl, 13211(%rsp) movb 52(%rsp), %cl movb %cl, 13212(%rsp) movb 53(%rsp), %cl movb %cl, 13213(%rsp) movb 54(%rsp), %cl movb %cl, 13214(%rsp) movb 55(%rsp), %cl movb %cl, 13215(%rsp) movb 56(%rsp), %cl movb %cl, 13216(%rsp) movb 57(%rsp), %cl movb %cl, 13217(%rsp) movb 58(%rsp), %cl movb %cl, 13218(%rsp) movb 59(%rsp), %cl movb %cl, 13219(%rsp) movb 60(%rsp), %cl movb %cl, 13220(%rsp) movb 61(%rsp), %cl movb %cl, 13221(%rsp) movb 62(%rsp), %cl movb %cl, 13222(%rsp) movb 63(%rsp), %cl movb %cl, 13223(%rsp) movb 64(%rsp), %cl movb %cl, 13224(%rsp) movb 65(%rsp), %cl movb %cl, 13225(%rsp) movb 66(%rsp), %cl movb %cl, 13226(%rsp) movb 67(%rsp), %cl movb %cl, 13227(%rsp) movb 68(%rsp), %cl movb %cl, 13228(%rsp) movb 69(%rsp), %cl movb %cl, 13229(%rsp) movb 70(%rsp), %cl movb %cl, 13230(%rsp) movb 71(%rsp), %cl movb %cl, 13231(%rsp) movb 72(%rsp), %cl movb %cl, 13232(%rsp) movb 73(%rsp), %cl movb %cl, 13233(%rsp) movb 74(%rsp), %cl movb %cl, 13234(%rsp) movb 75(%rsp), %cl movb %cl, 13235(%rsp) movb 76(%rsp), %cl movb %cl, 13236(%rsp) movb 77(%rsp), %cl movb %cl, 13237(%rsp) movb 78(%rsp), %cl movb %cl, 13238(%rsp) movb 79(%rsp), %cl movb %cl, 13239(%rsp) movq 32(%rsp), %rcx cmpq $0, %rcx je Ljade_kem_kyber_kyber768_amd64_ref_dec$197 movb $0, 13240(%rsp) movb $0, 13241(%rsp) jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$198 Ljade_kem_kyber_kyber768_amd64_ref_dec$197: movb $0, 13240(%rsp) movb $0, 13241(%rsp) Ljade_kem_kyber_kyber768_amd64_ref_dec$198: leaq 208(%rsp), %rcx leaq 13208(%rsp), %rdx call L_shake128_absorb34$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$196: movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$194 Ljade_kem_kyber_kyber768_amd64_ref_dec$195: movq %rcx, 408(%rsp,%rcx,8) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$194: cmpq $64, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$195 movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$186 Ljade_kem_kyber_kyber768_amd64_ref_dec$187: movq %rcx, 40(%rsp) leaq 208(%rsp), %rcx leaq 13242(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$193: leaq 8(%rsp), %rsp movq 40(%rsp), %rcx movq $0, %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$188: movzbw 13242(%rsp,%rdx), %si incq %rdx movzbw 13242(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13242(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$191 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$191 movw %si, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$192: Ljade_kem_kyber_kyber768_amd64_ref_dec$191: cmpw $3329, %r8w jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$189 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$189 movw %r8w, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$190: Ljade_kem_kyber_kyber768_amd64_ref_dec$189: cmpq $166, %rdx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$188 Ljade_kem_kyber_kyber768_amd64_ref_dec$186: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$187 movq $0, %rcx movq $0, %rdx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$184 Ljade_kem_kyber_kyber768_amd64_ref_dec$185: movw 408(%rsp,%rcx,2), %si movw %si, 8600(%rsp,%rdx,2) incq %rcx incq %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$184: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$185 movq 32(%rsp), %rcx cmpq $0, %rcx je Ljade_kem_kyber_kyber768_amd64_ref_dec$182 movb $0, 13240(%rsp) movb $1, 13241(%rsp) jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$183 Ljade_kem_kyber_kyber768_amd64_ref_dec$182: movb $1, 13240(%rsp) movb $0, 13241(%rsp) Ljade_kem_kyber_kyber768_amd64_ref_dec$183: leaq 208(%rsp), %rcx leaq 13208(%rsp), %rdx call L_shake128_absorb34$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$181: movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$179 Ljade_kem_kyber_kyber768_amd64_ref_dec$180: movq %rcx, 408(%rsp,%rcx,8) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$179: cmpq $64, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$180 movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$171 Ljade_kem_kyber_kyber768_amd64_ref_dec$172: movq %rcx, 40(%rsp) leaq 208(%rsp), %rcx leaq 13242(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$178: leaq 8(%rsp), %rsp movq 40(%rsp), %rcx movq $0, %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$173: movzbw 13242(%rsp,%rdx), %si incq %rdx movzbw 13242(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13242(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$176 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$176 movw %si, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$177: Ljade_kem_kyber_kyber768_amd64_ref_dec$176: cmpw $3329, %r8w jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$174 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$174 movw %r8w, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$175: Ljade_kem_kyber_kyber768_amd64_ref_dec$174: cmpq $166, %rdx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$173 Ljade_kem_kyber_kyber768_amd64_ref_dec$171: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$172 movq $0, %rcx movq $256, %rdx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$169 Ljade_kem_kyber_kyber768_amd64_ref_dec$170: movw 408(%rsp,%rcx,2), %si movw %si, 8600(%rsp,%rdx,2) incq %rcx incq %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$169: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$170 movq 32(%rsp), %rcx cmpq $0, %rcx je Ljade_kem_kyber_kyber768_amd64_ref_dec$167 movb $0, 13240(%rsp) movb $2, 13241(%rsp) jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$168 Ljade_kem_kyber_kyber768_amd64_ref_dec$167: movb $2, 13240(%rsp) movb $0, 13241(%rsp) Ljade_kem_kyber_kyber768_amd64_ref_dec$168: leaq 208(%rsp), %rcx leaq 13208(%rsp), %rdx call L_shake128_absorb34$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$166: movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$164 Ljade_kem_kyber_kyber768_amd64_ref_dec$165: movq %rcx, 408(%rsp,%rcx,8) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$164: cmpq $64, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$165 movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$156 Ljade_kem_kyber_kyber768_amd64_ref_dec$157: movq %rcx, 40(%rsp) leaq 208(%rsp), %rcx leaq 13242(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$163: leaq 8(%rsp), %rsp movq 40(%rsp), %rcx movq $0, %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$158: movzbw 13242(%rsp,%rdx), %si incq %rdx movzbw 13242(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13242(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$161 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$161 movw %si, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$162: Ljade_kem_kyber_kyber768_amd64_ref_dec$161: cmpw $3329, %r8w jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$159 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$159 movw %r8w, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$160: Ljade_kem_kyber_kyber768_amd64_ref_dec$159: cmpq $166, %rdx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$158 Ljade_kem_kyber_kyber768_amd64_ref_dec$156: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$157 movq $0, %rcx movq $512, %rdx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$154 Ljade_kem_kyber_kyber768_amd64_ref_dec$155: movw 408(%rsp,%rcx,2), %si movw %si, 8600(%rsp,%rdx,2) incq %rcx incq %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$154: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$155 movq 32(%rsp), %rcx cmpq $0, %rcx je Ljade_kem_kyber_kyber768_amd64_ref_dec$152 movb $1, 13240(%rsp) movb $0, 13241(%rsp) jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$153 Ljade_kem_kyber_kyber768_amd64_ref_dec$152: movb $0, 13240(%rsp) movb $1, 13241(%rsp) Ljade_kem_kyber_kyber768_amd64_ref_dec$153: leaq 208(%rsp), %rcx leaq 13208(%rsp), %rdx call L_shake128_absorb34$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$151: movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$149 Ljade_kem_kyber_kyber768_amd64_ref_dec$150: movq %rcx, 408(%rsp,%rcx,8) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$149: cmpq $64, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$150 movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$141 Ljade_kem_kyber_kyber768_amd64_ref_dec$142: movq %rcx, 40(%rsp) leaq 208(%rsp), %rcx leaq 13242(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$148: leaq 8(%rsp), %rsp movq 40(%rsp), %rcx movq $0, %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$143: movzbw 13242(%rsp,%rdx), %si incq %rdx movzbw 13242(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13242(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$146 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$146 movw %si, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$147: Ljade_kem_kyber_kyber768_amd64_ref_dec$146: cmpw $3329, %r8w jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$144 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$144 movw %r8w, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$145: Ljade_kem_kyber_kyber768_amd64_ref_dec$144: cmpq $166, %rdx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$143 Ljade_kem_kyber_kyber768_amd64_ref_dec$141: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$142 movq $0, %rcx movq $768, %rdx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$139 Ljade_kem_kyber_kyber768_amd64_ref_dec$140: movw 408(%rsp,%rcx,2), %si movw %si, 8600(%rsp,%rdx,2) incq %rcx incq %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$139: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$140 movq 32(%rsp), %rcx cmpq $0, %rcx je Ljade_kem_kyber_kyber768_amd64_ref_dec$137 movb $1, 13240(%rsp) movb $1, 13241(%rsp) jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$138 Ljade_kem_kyber_kyber768_amd64_ref_dec$137: movb $1, 13240(%rsp) movb $1, 13241(%rsp) Ljade_kem_kyber_kyber768_amd64_ref_dec$138: leaq 208(%rsp), %rcx leaq 13208(%rsp), %rdx call L_shake128_absorb34$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$136: movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$134 Ljade_kem_kyber_kyber768_amd64_ref_dec$135: movq %rcx, 408(%rsp,%rcx,8) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$134: cmpq $64, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$135 movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$126 Ljade_kem_kyber_kyber768_amd64_ref_dec$127: movq %rcx, 40(%rsp) leaq 208(%rsp), %rcx leaq 13242(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$133: leaq 8(%rsp), %rsp movq 40(%rsp), %rcx movq $0, %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$128: movzbw 13242(%rsp,%rdx), %si incq %rdx movzbw 13242(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13242(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$131 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$131 movw %si, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$132: Ljade_kem_kyber_kyber768_amd64_ref_dec$131: cmpw $3329, %r8w jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$129 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$129 movw %r8w, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$130: Ljade_kem_kyber_kyber768_amd64_ref_dec$129: cmpq $166, %rdx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$128 Ljade_kem_kyber_kyber768_amd64_ref_dec$126: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$127 movq $0, %rcx movq $1024, %rdx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$124 Ljade_kem_kyber_kyber768_amd64_ref_dec$125: movw 408(%rsp,%rcx,2), %si movw %si, 8600(%rsp,%rdx,2) incq %rcx incq %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$124: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$125 movq 32(%rsp), %rcx cmpq $0, %rcx je Ljade_kem_kyber_kyber768_amd64_ref_dec$122 movb $1, 13240(%rsp) movb $2, 13241(%rsp) jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$123 Ljade_kem_kyber_kyber768_amd64_ref_dec$122: movb $2, 13240(%rsp) movb $1, 13241(%rsp) Ljade_kem_kyber_kyber768_amd64_ref_dec$123: leaq 208(%rsp), %rcx leaq 13208(%rsp), %rdx call L_shake128_absorb34$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$121: movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$119 Ljade_kem_kyber_kyber768_amd64_ref_dec$120: movq %rcx, 408(%rsp,%rcx,8) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$119: cmpq $64, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$120 movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$111 Ljade_kem_kyber_kyber768_amd64_ref_dec$112: movq %rcx, 40(%rsp) leaq 208(%rsp), %rcx leaq 13242(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$118: leaq 8(%rsp), %rsp movq 40(%rsp), %rcx movq $0, %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$113: movzbw 13242(%rsp,%rdx), %si incq %rdx movzbw 13242(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13242(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$116 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$116 movw %si, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$117: Ljade_kem_kyber_kyber768_amd64_ref_dec$116: cmpw $3329, %r8w jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$114 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$114 movw %r8w, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$115: Ljade_kem_kyber_kyber768_amd64_ref_dec$114: cmpq $166, %rdx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$113 Ljade_kem_kyber_kyber768_amd64_ref_dec$111: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$112 movq $0, %rcx movq $1280, %rdx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$109 Ljade_kem_kyber_kyber768_amd64_ref_dec$110: movw 408(%rsp,%rcx,2), %si movw %si, 8600(%rsp,%rdx,2) incq %rcx incq %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$109: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$110 movq 32(%rsp), %rcx cmpq $0, %rcx je Ljade_kem_kyber_kyber768_amd64_ref_dec$107 movb $2, 13240(%rsp) movb $0, 13241(%rsp) jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$108 Ljade_kem_kyber_kyber768_amd64_ref_dec$107: movb $0, 13240(%rsp) movb $2, 13241(%rsp) Ljade_kem_kyber_kyber768_amd64_ref_dec$108: leaq 208(%rsp), %rcx leaq 13208(%rsp), %rdx call L_shake128_absorb34$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$106: movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$104 Ljade_kem_kyber_kyber768_amd64_ref_dec$105: movq %rcx, 408(%rsp,%rcx,8) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$104: cmpq $64, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$105 movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$96 Ljade_kem_kyber_kyber768_amd64_ref_dec$97: movq %rcx, 40(%rsp) leaq 208(%rsp), %rcx leaq 13242(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$103: leaq 8(%rsp), %rsp movq 40(%rsp), %rcx movq $0, %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$98: movzbw 13242(%rsp,%rdx), %si incq %rdx movzbw 13242(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13242(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$101 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$101 movw %si, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$102: Ljade_kem_kyber_kyber768_amd64_ref_dec$101: cmpw $3329, %r8w jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$99 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$99 movw %r8w, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$100: Ljade_kem_kyber_kyber768_amd64_ref_dec$99: cmpq $166, %rdx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$98 Ljade_kem_kyber_kyber768_amd64_ref_dec$96: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$97 movq $0, %rcx movq $1536, %rdx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$94 Ljade_kem_kyber_kyber768_amd64_ref_dec$95: movw 408(%rsp,%rcx,2), %si movw %si, 8600(%rsp,%rdx,2) incq %rcx incq %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$94: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$95 movq 32(%rsp), %rcx cmpq $0, %rcx je Ljade_kem_kyber_kyber768_amd64_ref_dec$92 movb $2, 13240(%rsp) movb $1, 13241(%rsp) jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$93 Ljade_kem_kyber_kyber768_amd64_ref_dec$92: movb $1, 13240(%rsp) movb $2, 13241(%rsp) Ljade_kem_kyber_kyber768_amd64_ref_dec$93: leaq 208(%rsp), %rcx leaq 13208(%rsp), %rdx call L_shake128_absorb34$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$91: movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$89 Ljade_kem_kyber_kyber768_amd64_ref_dec$90: movq %rcx, 408(%rsp,%rcx,8) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$89: cmpq $64, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$90 movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$81 Ljade_kem_kyber_kyber768_amd64_ref_dec$82: movq %rcx, 40(%rsp) leaq 208(%rsp), %rcx leaq 13242(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$88: leaq 8(%rsp), %rsp movq 40(%rsp), %rcx movq $0, %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$83: movzbw 13242(%rsp,%rdx), %si incq %rdx movzbw 13242(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13242(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$86 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$86 movw %si, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$87: Ljade_kem_kyber_kyber768_amd64_ref_dec$86: cmpw $3329, %r8w jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$84 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$84 movw %r8w, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$85: Ljade_kem_kyber_kyber768_amd64_ref_dec$84: cmpq $166, %rdx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$83 Ljade_kem_kyber_kyber768_amd64_ref_dec$81: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$82 movq $0, %rcx movq $1792, %rdx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$79 Ljade_kem_kyber_kyber768_amd64_ref_dec$80: movw 408(%rsp,%rcx,2), %si movw %si, 8600(%rsp,%rdx,2) incq %rcx incq %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$79: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$80 movq 32(%rsp), %rcx cmpq $0, %rcx je Ljade_kem_kyber_kyber768_amd64_ref_dec$77 movb $2, 13240(%rsp) movb $2, 13241(%rsp) jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$78 Ljade_kem_kyber_kyber768_amd64_ref_dec$77: movb $2, 13240(%rsp) movb $2, 13241(%rsp) Ljade_kem_kyber_kyber768_amd64_ref_dec$78: leaq 208(%rsp), %rcx leaq 13208(%rsp), %rdx call L_shake128_absorb34$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$76: movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$74 Ljade_kem_kyber_kyber768_amd64_ref_dec$75: movq %rcx, 408(%rsp,%rcx,8) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$74: cmpq $64, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$75 movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$66 Ljade_kem_kyber_kyber768_amd64_ref_dec$67: movq %rcx, 32(%rsp) leaq 208(%rsp), %rcx leaq 13242(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$73: leaq 8(%rsp), %rsp movq 32(%rsp), %rcx movq $0, %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$68: movzbw 13242(%rsp,%rdx), %si incq %rdx movzbw 13242(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13242(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$71 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$71 movw %si, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$72: Ljade_kem_kyber_kyber768_amd64_ref_dec$71: cmpw $3329, %r8w jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$69 cmpq $256, %rcx jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$69 movw %r8w, 408(%rsp,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$70: Ljade_kem_kyber_kyber768_amd64_ref_dec$69: cmpq $166, %rdx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$68 Ljade_kem_kyber_kyber768_amd64_ref_dec$66: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$67 movq $0, %rcx movq $2048, %rdx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$64 Ljade_kem_kyber_kyber768_amd64_ref_dec$65: movw 408(%rsp,%rcx,2), %si movw %si, 8600(%rsp,%rdx,2) incq %rcx incq %rdx Ljade_kem_kyber_kyber768_amd64_ref_dec$64: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$65 movb $0, %cl leaq 3992(%rsp), %rdx leaq -176(%rsp), %rsp call L_poly_getnoise$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$63: leaq 176(%rsp), %rsp movb $1, %cl leaq 4504(%rsp), %rdx leaq -176(%rsp), %rsp call L_poly_getnoise$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$62: leaq 176(%rsp), %rsp movb $2, %cl leaq 5016(%rsp), %rdx leaq -176(%rsp), %rsp call L_poly_getnoise$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$61: leaq 176(%rsp), %rsp movb $3, %cl leaq 5528(%rsp), %rdx leaq -176(%rsp), %rsp call L_poly_getnoise$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$60: leaq 176(%rsp), %rsp movb $4, %cl leaq 6040(%rsp), %rdx leaq -176(%rsp), %rsp call L_poly_getnoise$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$59: leaq 176(%rsp), %rsp movb $5, %cl leaq 6552(%rsp), %rdx leaq -176(%rsp), %rsp call L_poly_getnoise$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$58: leaq 176(%rsp), %rsp movb $6, %cl leaq 408(%rsp), %rdx leaq -176(%rsp), %rsp call L_poly_getnoise$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$57: leaq 176(%rsp), %rsp leaq 3992(%rsp), %rcx call L_poly_ntt$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$56: leaq 4504(%rsp), %rcx call L_poly_ntt$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$55: leaq 5016(%rsp), %rcx call L_poly_ntt$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$54: leaq 7064(%rsp), %rdi leaq 8600(%rsp), %rcx leaq 3992(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$53: leaq 16(%rsp), %rsp leaq 920(%rsp), %rdi leaq 9112(%rsp), %rcx leaq 4504(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$52: leaq 16(%rsp), %rsp leaq 7064(%rsp), %rcx leaq 920(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$51: leaq 920(%rsp), %rdi leaq 9624(%rsp), %rcx leaq 5016(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$50: leaq 16(%rsp), %rsp leaq 7064(%rsp), %rcx leaq 920(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$49: leaq 7064(%rsp), %rax movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$47 Ljade_kem_kyber_kyber768_amd64_ref_dec$48: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$47: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$48 leaq 7576(%rsp), %rdi leaq 10136(%rsp), %rcx leaq 3992(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$46: leaq 16(%rsp), %rsp leaq 920(%rsp), %rdi leaq 10648(%rsp), %rcx leaq 4504(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$45: leaq 16(%rsp), %rsp leaq 7576(%rsp), %rcx leaq 920(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$44: leaq 920(%rsp), %rdi leaq 11160(%rsp), %rcx leaq 5016(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$43: leaq 16(%rsp), %rsp leaq 7576(%rsp), %rcx leaq 920(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$42: leaq 7576(%rsp), %rax movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$40 Ljade_kem_kyber_kyber768_amd64_ref_dec$41: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$40: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$41 leaq 8088(%rsp), %rdi leaq 11672(%rsp), %rcx leaq 3992(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$39: leaq 16(%rsp), %rsp leaq 920(%rsp), %rdi leaq 12184(%rsp), %rcx leaq 4504(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$38: leaq 16(%rsp), %rsp leaq 8088(%rsp), %rcx leaq 920(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$37: leaq 920(%rsp), %rdi leaq 12696(%rsp), %rcx leaq 5016(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$36: leaq 16(%rsp), %rsp leaq 8088(%rsp), %rcx leaq 920(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$35: leaq 8088(%rsp), %rax movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$33 Ljade_kem_kyber_kyber768_amd64_ref_dec$34: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$33: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$34 leaq 920(%rsp), %rdi leaq 2456(%rsp), %rcx leaq 3992(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$32: leaq 16(%rsp), %rsp leaq 1944(%rsp), %rdi leaq 2968(%rsp), %rcx leaq 4504(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$31: leaq 16(%rsp), %rsp leaq 920(%rsp), %rcx leaq 1944(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$30: leaq 1944(%rsp), %rdi leaq 3480(%rsp), %rcx leaq 5016(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$29: leaq 16(%rsp), %rsp leaq 920(%rsp), %rcx leaq 1944(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$28: leaq 920(%rsp), %rax movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$26 Ljade_kem_kyber_kyber768_amd64_ref_dec$27: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$26: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$27 leaq 7064(%rsp), %rcx call L_poly_invntt$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$25: leaq 7576(%rsp), %rcx call L_poly_invntt$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$24: leaq 8088(%rsp), %rcx call L_poly_invntt$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$23: leaq 920(%rsp), %rcx call L_poly_invntt$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$22: leaq 7064(%rsp), %rcx leaq 5528(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$21: leaq 7576(%rsp), %rcx leaq 6040(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$20: leaq 8088(%rsp), %rcx leaq 6552(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$19: leaq 920(%rsp), %rcx leaq 408(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$18: leaq 920(%rsp), %rcx leaq 1432(%rsp), %rsi call L_poly_add2$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$17: leaq 7064(%rsp), %rax movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$15 Ljade_kem_kyber_kyber768_amd64_ref_dec$16: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$15: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$16 leaq 7576(%rsp), %rax movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$13 Ljade_kem_kyber_kyber768_amd64_ref_dec$14: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$13: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$14 leaq 8088(%rsp), %rax movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$11 Ljade_kem_kyber_kyber768_amd64_ref_dec$12: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$11: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$12 leaq 920(%rsp), %rax movq $0, %rcx jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$9 Ljade_kem_kyber_kyber768_amd64_ref_dec$10: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx Ljade_kem_kyber_kyber768_amd64_ref_dec$9: cmpq $256, %rcx jb Ljade_kem_kyber_kyber768_amd64_ref_dec$10 movq 24(%rsp), %rax movq %rax, %rdx movq $0, %rsi movq $0, %rdi leaq 7064(%rsp), %rcx call L_poly_csubq$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$8: leaq 7576(%rsp), %rcx call L_poly_csubq$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$7: leaq 8088(%rsp), %rcx call L_poly_csubq$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$6: jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$4 Ljade_kem_kyber_kyber768_amd64_ref_dec$5: movzwq 7064(%rsp,%rsi,2), %rcx incq %rsi shlq $10, %rcx addq $1665, %rcx imulq $1290167, %rcx, %rcx shrq $32, %rcx andq $1023, %rcx movzwq 7064(%rsp,%rsi,2), %r8 incq %rsi shlq $10, %r8 addq $1665, %r8 imulq $1290167, %r8, %r8 shrq $32, %r8 andq $1023, %r8 movzwq 7064(%rsp,%rsi,2), %r9 incq %rsi shlq $10, %r9 addq $1665, %r9 imulq $1290167, %r9, %r9 shrq $32, %r9 andq $1023, %r9 movzwq 7064(%rsp,%rsi,2), %r10 incq %rsi shlq $10, %r10 addq $1665, %r10 imulq $1290167, %r10, %r10 shrq $32, %r10 andq $1023, %r10 movw %cx, %r11w andw $255, %r11w movb %r11b, (%rdx,%rdi) incq %rdi shrw $8, %cx movw %r8w, %r11w shlw $2, %r11w orw %cx, %r11w movb %r11b, (%rdx,%rdi) incq %rdi shrw $6, %r8w movw %r9w, %cx shlw $4, %cx orw %r8w, %cx movb %cl, (%rdx,%rdi) incq %rdi shrw $4, %r9w movw %r10w, %cx shlw $6, %cx orw %r9w, %cx movb %cl, (%rdx,%rdi) incq %rdi shrq $2, %r10 movb %r10b, (%rdx,%rdi) incq %rdi Ljade_kem_kyber_kyber768_amd64_ref_dec$4: cmpq $768, %rsi jb Ljade_kem_kyber_kyber768_amd64_ref_dec$5 leaq 960(%rax), %rax leaq 920(%rsp), %rcx call L_i_poly_compress$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$3: movq 8(%rsp), %rsi leaq 13410(%rsp), %rax movq $0, %rcx movb (%rax), %dl movb (%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1(%rax), %dl movb 1(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 2(%rax), %dl movb 2(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 3(%rax), %dl movb 3(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 4(%rax), %dl movb 4(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 5(%rax), %dl movb 5(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 6(%rax), %dl movb 6(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 7(%rax), %dl movb 7(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 8(%rax), %dl movb 8(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 9(%rax), %dl movb 9(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 10(%rax), %dl movb 10(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 11(%rax), %dl movb 11(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 12(%rax), %dl movb 12(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 13(%rax), %dl movb 13(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 14(%rax), %dl movb 14(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 15(%rax), %dl movb 15(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 16(%rax), %dl movb 16(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 17(%rax), %dl movb 17(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 18(%rax), %dl movb 18(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 19(%rax), %dl movb 19(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 20(%rax), %dl movb 20(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 21(%rax), %dl movb 21(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 22(%rax), %dl movb 22(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 23(%rax), %dl movb 23(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 24(%rax), %dl movb 24(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 25(%rax), %dl movb 25(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 26(%rax), %dl movb 26(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 27(%rax), %dl movb 27(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 28(%rax), %dl movb 28(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 29(%rax), %dl movb 29(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 30(%rax), %dl movb 30(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 31(%rax), %dl movb 31(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 32(%rax), %dl movb 32(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 33(%rax), %dl movb 33(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 34(%rax), %dl movb 34(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 35(%rax), %dl movb 35(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 36(%rax), %dl movb 36(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 37(%rax), %dl movb 37(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 38(%rax), %dl movb 38(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 39(%rax), %dl movb 39(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 40(%rax), %dl movb 40(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 41(%rax), %dl movb 41(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 42(%rax), %dl movb 42(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 43(%rax), %dl movb 43(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 44(%rax), %dl movb 44(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 45(%rax), %dl movb 45(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 46(%rax), %dl movb 46(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 47(%rax), %dl movb 47(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 48(%rax), %dl movb 48(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 49(%rax), %dl movb 49(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 50(%rax), %dl movb 50(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 51(%rax), %dl movb 51(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 52(%rax), %dl movb 52(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 53(%rax), %dl movb 53(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 54(%rax), %dl movb 54(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 55(%rax), %dl movb 55(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 56(%rax), %dl movb 56(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 57(%rax), %dl movb 57(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 58(%rax), %dl movb 58(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 59(%rax), %dl movb 59(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 60(%rax), %dl movb 60(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 61(%rax), %dl movb 61(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 62(%rax), %dl movb 62(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 63(%rax), %dl movb 63(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 64(%rax), %dl movb 64(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 65(%rax), %dl movb 65(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 66(%rax), %dl movb 66(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 67(%rax), %dl movb 67(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 68(%rax), %dl movb 68(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 69(%rax), %dl movb 69(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 70(%rax), %dl movb 70(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 71(%rax), %dl movb 71(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 72(%rax), %dl movb 72(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 73(%rax), %dl movb 73(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 74(%rax), %dl movb 74(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 75(%rax), %dl movb 75(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 76(%rax), %dl movb 76(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 77(%rax), %dl movb 77(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 78(%rax), %dl movb 78(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 79(%rax), %dl movb 79(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 80(%rax), %dl movb 80(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 81(%rax), %dl movb 81(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 82(%rax), %dl movb 82(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 83(%rax), %dl movb 83(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 84(%rax), %dl movb 84(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 85(%rax), %dl movb 85(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 86(%rax), %dl movb 86(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 87(%rax), %dl movb 87(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 88(%rax), %dl movb 88(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 89(%rax), %dl movb 89(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 90(%rax), %dl movb 90(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 91(%rax), %dl movb 91(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 92(%rax), %dl movb 92(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 93(%rax), %dl movb 93(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 94(%rax), %dl movb 94(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 95(%rax), %dl movb 95(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 96(%rax), %dl movb 96(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 97(%rax), %dl movb 97(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 98(%rax), %dl movb 98(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 99(%rax), %dl movb 99(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 100(%rax), %dl movb 100(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 101(%rax), %dl movb 101(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 102(%rax), %dl movb 102(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 103(%rax), %dl movb 103(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 104(%rax), %dl movb 104(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 105(%rax), %dl movb 105(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 106(%rax), %dl movb 106(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 107(%rax), %dl movb 107(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 108(%rax), %dl movb 108(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 109(%rax), %dl movb 109(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 110(%rax), %dl movb 110(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 111(%rax), %dl movb 111(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 112(%rax), %dl movb 112(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 113(%rax), %dl movb 113(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 114(%rax), %dl movb 114(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 115(%rax), %dl movb 115(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 116(%rax), %dl movb 116(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 117(%rax), %dl movb 117(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 118(%rax), %dl movb 118(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 119(%rax), %dl movb 119(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 120(%rax), %dl movb 120(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 121(%rax), %dl movb 121(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 122(%rax), %dl movb 122(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 123(%rax), %dl movb 123(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 124(%rax), %dl movb 124(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 125(%rax), %dl movb 125(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 126(%rax), %dl movb 126(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 127(%rax), %dl movb 127(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 128(%rax), %dl movb 128(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 129(%rax), %dl movb 129(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 130(%rax), %dl movb 130(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 131(%rax), %dl movb 131(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 132(%rax), %dl movb 132(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 133(%rax), %dl movb 133(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 134(%rax), %dl movb 134(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 135(%rax), %dl movb 135(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 136(%rax), %dl movb 136(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 137(%rax), %dl movb 137(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 138(%rax), %dl movb 138(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 139(%rax), %dl movb 139(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 140(%rax), %dl movb 140(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 141(%rax), %dl movb 141(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 142(%rax), %dl movb 142(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 143(%rax), %dl movb 143(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 144(%rax), %dl movb 144(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 145(%rax), %dl movb 145(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 146(%rax), %dl movb 146(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 147(%rax), %dl movb 147(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 148(%rax), %dl movb 148(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 149(%rax), %dl movb 149(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 150(%rax), %dl movb 150(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 151(%rax), %dl movb 151(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 152(%rax), %dl movb 152(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 153(%rax), %dl movb 153(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 154(%rax), %dl movb 154(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 155(%rax), %dl movb 155(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 156(%rax), %dl movb 156(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 157(%rax), %dl movb 157(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 158(%rax), %dl movb 158(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 159(%rax), %dl movb 159(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 160(%rax), %dl movb 160(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 161(%rax), %dl movb 161(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 162(%rax), %dl movb 162(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 163(%rax), %dl movb 163(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 164(%rax), %dl movb 164(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 165(%rax), %dl movb 165(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 166(%rax), %dl movb 166(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 167(%rax), %dl movb 167(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 168(%rax), %dl movb 168(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 169(%rax), %dl movb 169(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 170(%rax), %dl movb 170(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 171(%rax), %dl movb 171(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 172(%rax), %dl movb 172(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 173(%rax), %dl movb 173(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 174(%rax), %dl movb 174(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 175(%rax), %dl movb 175(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 176(%rax), %dl movb 176(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 177(%rax), %dl movb 177(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 178(%rax), %dl movb 178(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 179(%rax), %dl movb 179(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 180(%rax), %dl movb 180(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 181(%rax), %dl movb 181(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 182(%rax), %dl movb 182(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 183(%rax), %dl movb 183(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 184(%rax), %dl movb 184(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 185(%rax), %dl movb 185(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 186(%rax), %dl movb 186(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 187(%rax), %dl movb 187(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 188(%rax), %dl movb 188(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 189(%rax), %dl movb 189(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 190(%rax), %dl movb 190(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 191(%rax), %dl movb 191(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 192(%rax), %dl movb 192(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 193(%rax), %dl movb 193(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 194(%rax), %dl movb 194(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 195(%rax), %dl movb 195(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 196(%rax), %dl movb 196(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 197(%rax), %dl movb 197(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 198(%rax), %dl movb 198(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 199(%rax), %dl movb 199(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 200(%rax), %dl movb 200(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 201(%rax), %dl movb 201(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 202(%rax), %dl movb 202(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 203(%rax), %dl movb 203(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 204(%rax), %dl movb 204(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 205(%rax), %dl movb 205(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 206(%rax), %dl movb 206(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 207(%rax), %dl movb 207(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 208(%rax), %dl movb 208(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 209(%rax), %dl movb 209(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 210(%rax), %dl movb 210(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 211(%rax), %dl movb 211(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 212(%rax), %dl movb 212(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 213(%rax), %dl movb 213(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 214(%rax), %dl movb 214(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 215(%rax), %dl movb 215(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 216(%rax), %dl movb 216(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 217(%rax), %dl movb 217(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 218(%rax), %dl movb 218(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 219(%rax), %dl movb 219(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 220(%rax), %dl movb 220(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 221(%rax), %dl movb 221(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 222(%rax), %dl movb 222(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 223(%rax), %dl movb 223(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 224(%rax), %dl movb 224(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 225(%rax), %dl movb 225(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 226(%rax), %dl movb 226(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 227(%rax), %dl movb 227(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 228(%rax), %dl movb 228(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 229(%rax), %dl movb 229(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 230(%rax), %dl movb 230(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 231(%rax), %dl movb 231(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 232(%rax), %dl movb 232(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 233(%rax), %dl movb 233(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 234(%rax), %dl movb 234(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 235(%rax), %dl movb 235(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 236(%rax), %dl movb 236(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 237(%rax), %dl movb 237(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 238(%rax), %dl movb 238(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 239(%rax), %dl movb 239(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 240(%rax), %dl movb 240(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 241(%rax), %dl movb 241(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 242(%rax), %dl movb 242(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 243(%rax), %dl movb 243(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 244(%rax), %dl movb 244(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 245(%rax), %dl movb 245(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 246(%rax), %dl movb 246(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 247(%rax), %dl movb 247(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 248(%rax), %dl movb 248(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 249(%rax), %dl movb 249(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 250(%rax), %dl movb 250(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 251(%rax), %dl movb 251(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 252(%rax), %dl movb 252(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 253(%rax), %dl movb 253(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 254(%rax), %dl movb 254(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 255(%rax), %dl movb 255(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 256(%rax), %dl movb 256(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 257(%rax), %dl movb 257(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 258(%rax), %dl movb 258(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 259(%rax), %dl movb 259(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 260(%rax), %dl movb 260(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 261(%rax), %dl movb 261(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 262(%rax), %dl movb 262(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 263(%rax), %dl movb 263(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 264(%rax), %dl movb 264(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 265(%rax), %dl movb 265(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 266(%rax), %dl movb 266(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 267(%rax), %dl movb 267(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 268(%rax), %dl movb 268(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 269(%rax), %dl movb 269(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 270(%rax), %dl movb 270(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 271(%rax), %dl movb 271(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 272(%rax), %dl movb 272(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 273(%rax), %dl movb 273(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 274(%rax), %dl movb 274(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 275(%rax), %dl movb 275(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 276(%rax), %dl movb 276(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 277(%rax), %dl movb 277(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 278(%rax), %dl movb 278(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 279(%rax), %dl movb 279(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 280(%rax), %dl movb 280(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 281(%rax), %dl movb 281(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 282(%rax), %dl movb 282(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 283(%rax), %dl movb 283(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 284(%rax), %dl movb 284(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 285(%rax), %dl movb 285(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 286(%rax), %dl movb 286(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 287(%rax), %dl movb 287(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 288(%rax), %dl movb 288(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 289(%rax), %dl movb 289(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 290(%rax), %dl movb 290(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 291(%rax), %dl movb 291(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 292(%rax), %dl movb 292(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 293(%rax), %dl movb 293(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 294(%rax), %dl movb 294(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 295(%rax), %dl movb 295(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 296(%rax), %dl movb 296(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 297(%rax), %dl movb 297(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 298(%rax), %dl movb 298(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 299(%rax), %dl movb 299(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 300(%rax), %dl movb 300(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 301(%rax), %dl movb 301(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 302(%rax), %dl movb 302(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 303(%rax), %dl movb 303(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 304(%rax), %dl movb 304(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 305(%rax), %dl movb 305(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 306(%rax), %dl movb 306(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 307(%rax), %dl movb 307(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 308(%rax), %dl movb 308(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 309(%rax), %dl movb 309(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 310(%rax), %dl movb 310(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 311(%rax), %dl movb 311(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 312(%rax), %dl movb 312(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 313(%rax), %dl movb 313(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 314(%rax), %dl movb 314(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 315(%rax), %dl movb 315(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 316(%rax), %dl movb 316(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 317(%rax), %dl movb 317(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 318(%rax), %dl movb 318(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 319(%rax), %dl movb 319(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 320(%rax), %dl movb 320(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 321(%rax), %dl movb 321(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 322(%rax), %dl movb 322(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 323(%rax), %dl movb 323(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 324(%rax), %dl movb 324(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 325(%rax), %dl movb 325(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 326(%rax), %dl movb 326(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 327(%rax), %dl movb 327(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 328(%rax), %dl movb 328(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 329(%rax), %dl movb 329(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 330(%rax), %dl movb 330(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 331(%rax), %dl movb 331(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 332(%rax), %dl movb 332(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 333(%rax), %dl movb 333(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 334(%rax), %dl movb 334(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 335(%rax), %dl movb 335(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 336(%rax), %dl movb 336(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 337(%rax), %dl movb 337(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 338(%rax), %dl movb 338(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 339(%rax), %dl movb 339(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 340(%rax), %dl movb 340(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 341(%rax), %dl movb 341(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 342(%rax), %dl movb 342(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 343(%rax), %dl movb 343(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 344(%rax), %dl movb 344(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 345(%rax), %dl movb 345(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 346(%rax), %dl movb 346(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 347(%rax), %dl movb 347(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 348(%rax), %dl movb 348(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 349(%rax), %dl movb 349(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 350(%rax), %dl movb 350(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 351(%rax), %dl movb 351(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 352(%rax), %dl movb 352(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 353(%rax), %dl movb 353(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 354(%rax), %dl movb 354(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 355(%rax), %dl movb 355(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 356(%rax), %dl movb 356(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 357(%rax), %dl movb 357(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 358(%rax), %dl movb 358(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 359(%rax), %dl movb 359(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 360(%rax), %dl movb 360(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 361(%rax), %dl movb 361(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 362(%rax), %dl movb 362(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 363(%rax), %dl movb 363(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 364(%rax), %dl movb 364(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 365(%rax), %dl movb 365(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 366(%rax), %dl movb 366(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 367(%rax), %dl movb 367(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 368(%rax), %dl movb 368(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 369(%rax), %dl movb 369(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 370(%rax), %dl movb 370(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 371(%rax), %dl movb 371(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 372(%rax), %dl movb 372(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 373(%rax), %dl movb 373(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 374(%rax), %dl movb 374(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 375(%rax), %dl movb 375(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 376(%rax), %dl movb 376(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 377(%rax), %dl movb 377(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 378(%rax), %dl movb 378(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 379(%rax), %dl movb 379(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 380(%rax), %dl movb 380(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 381(%rax), %dl movb 381(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 382(%rax), %dl movb 382(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 383(%rax), %dl movb 383(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 384(%rax), %dl movb 384(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 385(%rax), %dl movb 385(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 386(%rax), %dl movb 386(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 387(%rax), %dl movb 387(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 388(%rax), %dl movb 388(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 389(%rax), %dl movb 389(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 390(%rax), %dl movb 390(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 391(%rax), %dl movb 391(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 392(%rax), %dl movb 392(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 393(%rax), %dl movb 393(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 394(%rax), %dl movb 394(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 395(%rax), %dl movb 395(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 396(%rax), %dl movb 396(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 397(%rax), %dl movb 397(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 398(%rax), %dl movb 398(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 399(%rax), %dl movb 399(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 400(%rax), %dl movb 400(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 401(%rax), %dl movb 401(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 402(%rax), %dl movb 402(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 403(%rax), %dl movb 403(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 404(%rax), %dl movb 404(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 405(%rax), %dl movb 405(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 406(%rax), %dl movb 406(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 407(%rax), %dl movb 407(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 408(%rax), %dl movb 408(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 409(%rax), %dl movb 409(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 410(%rax), %dl movb 410(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 411(%rax), %dl movb 411(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 412(%rax), %dl movb 412(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 413(%rax), %dl movb 413(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 414(%rax), %dl movb 414(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 415(%rax), %dl movb 415(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 416(%rax), %dl movb 416(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 417(%rax), %dl movb 417(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 418(%rax), %dl movb 418(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 419(%rax), %dl movb 419(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 420(%rax), %dl movb 420(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 421(%rax), %dl movb 421(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 422(%rax), %dl movb 422(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 423(%rax), %dl movb 423(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 424(%rax), %dl movb 424(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 425(%rax), %dl movb 425(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 426(%rax), %dl movb 426(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 427(%rax), %dl movb 427(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 428(%rax), %dl movb 428(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 429(%rax), %dl movb 429(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 430(%rax), %dl movb 430(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 431(%rax), %dl movb 431(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 432(%rax), %dl movb 432(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 433(%rax), %dl movb 433(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 434(%rax), %dl movb 434(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 435(%rax), %dl movb 435(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 436(%rax), %dl movb 436(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 437(%rax), %dl movb 437(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 438(%rax), %dl movb 438(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 439(%rax), %dl movb 439(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 440(%rax), %dl movb 440(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 441(%rax), %dl movb 441(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 442(%rax), %dl movb 442(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 443(%rax), %dl movb 443(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 444(%rax), %dl movb 444(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 445(%rax), %dl movb 445(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 446(%rax), %dl movb 446(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 447(%rax), %dl movb 447(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 448(%rax), %dl movb 448(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 449(%rax), %dl movb 449(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 450(%rax), %dl movb 450(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 451(%rax), %dl movb 451(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 452(%rax), %dl movb 452(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 453(%rax), %dl movb 453(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 454(%rax), %dl movb 454(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 455(%rax), %dl movb 455(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 456(%rax), %dl movb 456(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 457(%rax), %dl movb 457(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 458(%rax), %dl movb 458(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 459(%rax), %dl movb 459(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 460(%rax), %dl movb 460(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 461(%rax), %dl movb 461(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 462(%rax), %dl movb 462(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 463(%rax), %dl movb 463(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 464(%rax), %dl movb 464(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 465(%rax), %dl movb 465(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 466(%rax), %dl movb 466(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 467(%rax), %dl movb 467(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 468(%rax), %dl movb 468(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 469(%rax), %dl movb 469(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 470(%rax), %dl movb 470(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 471(%rax), %dl movb 471(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 472(%rax), %dl movb 472(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 473(%rax), %dl movb 473(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 474(%rax), %dl movb 474(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 475(%rax), %dl movb 475(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 476(%rax), %dl movb 476(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 477(%rax), %dl movb 477(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 478(%rax), %dl movb 478(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 479(%rax), %dl movb 479(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 480(%rax), %dl movb 480(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 481(%rax), %dl movb 481(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 482(%rax), %dl movb 482(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 483(%rax), %dl movb 483(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 484(%rax), %dl movb 484(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 485(%rax), %dl movb 485(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 486(%rax), %dl movb 486(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 487(%rax), %dl movb 487(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 488(%rax), %dl movb 488(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 489(%rax), %dl movb 489(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 490(%rax), %dl movb 490(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 491(%rax), %dl movb 491(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 492(%rax), %dl movb 492(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 493(%rax), %dl movb 493(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 494(%rax), %dl movb 494(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 495(%rax), %dl movb 495(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 496(%rax), %dl movb 496(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 497(%rax), %dl movb 497(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 498(%rax), %dl movb 498(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 499(%rax), %dl movb 499(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 500(%rax), %dl movb 500(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 501(%rax), %dl movb 501(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 502(%rax), %dl movb 502(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 503(%rax), %dl movb 503(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 504(%rax), %dl movb 504(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 505(%rax), %dl movb 505(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 506(%rax), %dl movb 506(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 507(%rax), %dl movb 507(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 508(%rax), %dl movb 508(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 509(%rax), %dl movb 509(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 510(%rax), %dl movb 510(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 511(%rax), %dl movb 511(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 512(%rax), %dl movb 512(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 513(%rax), %dl movb 513(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 514(%rax), %dl movb 514(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 515(%rax), %dl movb 515(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 516(%rax), %dl movb 516(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 517(%rax), %dl movb 517(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 518(%rax), %dl movb 518(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 519(%rax), %dl movb 519(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 520(%rax), %dl movb 520(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 521(%rax), %dl movb 521(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 522(%rax), %dl movb 522(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 523(%rax), %dl movb 523(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 524(%rax), %dl movb 524(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 525(%rax), %dl movb 525(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 526(%rax), %dl movb 526(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 527(%rax), %dl movb 527(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 528(%rax), %dl movb 528(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 529(%rax), %dl movb 529(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 530(%rax), %dl movb 530(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 531(%rax), %dl movb 531(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 532(%rax), %dl movb 532(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 533(%rax), %dl movb 533(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 534(%rax), %dl movb 534(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 535(%rax), %dl movb 535(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 536(%rax), %dl movb 536(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 537(%rax), %dl movb 537(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 538(%rax), %dl movb 538(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 539(%rax), %dl movb 539(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 540(%rax), %dl movb 540(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 541(%rax), %dl movb 541(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 542(%rax), %dl movb 542(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 543(%rax), %dl movb 543(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 544(%rax), %dl movb 544(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 545(%rax), %dl movb 545(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 546(%rax), %dl movb 546(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 547(%rax), %dl movb 547(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 548(%rax), %dl movb 548(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 549(%rax), %dl movb 549(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 550(%rax), %dl movb 550(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 551(%rax), %dl movb 551(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 552(%rax), %dl movb 552(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 553(%rax), %dl movb 553(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 554(%rax), %dl movb 554(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 555(%rax), %dl movb 555(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 556(%rax), %dl movb 556(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 557(%rax), %dl movb 557(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 558(%rax), %dl movb 558(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 559(%rax), %dl movb 559(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 560(%rax), %dl movb 560(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 561(%rax), %dl movb 561(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 562(%rax), %dl movb 562(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 563(%rax), %dl movb 563(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 564(%rax), %dl movb 564(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 565(%rax), %dl movb 565(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 566(%rax), %dl movb 566(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 567(%rax), %dl movb 567(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 568(%rax), %dl movb 568(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 569(%rax), %dl movb 569(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 570(%rax), %dl movb 570(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 571(%rax), %dl movb 571(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 572(%rax), %dl movb 572(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 573(%rax), %dl movb 573(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 574(%rax), %dl movb 574(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 575(%rax), %dl movb 575(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 576(%rax), %dl movb 576(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 577(%rax), %dl movb 577(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 578(%rax), %dl movb 578(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 579(%rax), %dl movb 579(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 580(%rax), %dl movb 580(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 581(%rax), %dl movb 581(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 582(%rax), %dl movb 582(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 583(%rax), %dl movb 583(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 584(%rax), %dl movb 584(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 585(%rax), %dl movb 585(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 586(%rax), %dl movb 586(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 587(%rax), %dl movb 587(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 588(%rax), %dl movb 588(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 589(%rax), %dl movb 589(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 590(%rax), %dl movb 590(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 591(%rax), %dl movb 591(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 592(%rax), %dl movb 592(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 593(%rax), %dl movb 593(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 594(%rax), %dl movb 594(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 595(%rax), %dl movb 595(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 596(%rax), %dl movb 596(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 597(%rax), %dl movb 597(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 598(%rax), %dl movb 598(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 599(%rax), %dl movb 599(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 600(%rax), %dl movb 600(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 601(%rax), %dl movb 601(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 602(%rax), %dl movb 602(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 603(%rax), %dl movb 603(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 604(%rax), %dl movb 604(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 605(%rax), %dl movb 605(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 606(%rax), %dl movb 606(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 607(%rax), %dl movb 607(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 608(%rax), %dl movb 608(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 609(%rax), %dl movb 609(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 610(%rax), %dl movb 610(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 611(%rax), %dl movb 611(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 612(%rax), %dl movb 612(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 613(%rax), %dl movb 613(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 614(%rax), %dl movb 614(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 615(%rax), %dl movb 615(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 616(%rax), %dl movb 616(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 617(%rax), %dl movb 617(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 618(%rax), %dl movb 618(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 619(%rax), %dl movb 619(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 620(%rax), %dl movb 620(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 621(%rax), %dl movb 621(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 622(%rax), %dl movb 622(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 623(%rax), %dl movb 623(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 624(%rax), %dl movb 624(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 625(%rax), %dl movb 625(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 626(%rax), %dl movb 626(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 627(%rax), %dl movb 627(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 628(%rax), %dl movb 628(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 629(%rax), %dl movb 629(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 630(%rax), %dl movb 630(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 631(%rax), %dl movb 631(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 632(%rax), %dl movb 632(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 633(%rax), %dl movb 633(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 634(%rax), %dl movb 634(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 635(%rax), %dl movb 635(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 636(%rax), %dl movb 636(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 637(%rax), %dl movb 637(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 638(%rax), %dl movb 638(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 639(%rax), %dl movb 639(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 640(%rax), %dl movb 640(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 641(%rax), %dl movb 641(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 642(%rax), %dl movb 642(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 643(%rax), %dl movb 643(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 644(%rax), %dl movb 644(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 645(%rax), %dl movb 645(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 646(%rax), %dl movb 646(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 647(%rax), %dl movb 647(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 648(%rax), %dl movb 648(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 649(%rax), %dl movb 649(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 650(%rax), %dl movb 650(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 651(%rax), %dl movb 651(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 652(%rax), %dl movb 652(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 653(%rax), %dl movb 653(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 654(%rax), %dl movb 654(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 655(%rax), %dl movb 655(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 656(%rax), %dl movb 656(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 657(%rax), %dl movb 657(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 658(%rax), %dl movb 658(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 659(%rax), %dl movb 659(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 660(%rax), %dl movb 660(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 661(%rax), %dl movb 661(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 662(%rax), %dl movb 662(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 663(%rax), %dl movb 663(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 664(%rax), %dl movb 664(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 665(%rax), %dl movb 665(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 666(%rax), %dl movb 666(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 667(%rax), %dl movb 667(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 668(%rax), %dl movb 668(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 669(%rax), %dl movb 669(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 670(%rax), %dl movb 670(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 671(%rax), %dl movb 671(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 672(%rax), %dl movb 672(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 673(%rax), %dl movb 673(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 674(%rax), %dl movb 674(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 675(%rax), %dl movb 675(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 676(%rax), %dl movb 676(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 677(%rax), %dl movb 677(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 678(%rax), %dl movb 678(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 679(%rax), %dl movb 679(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 680(%rax), %dl movb 680(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 681(%rax), %dl movb 681(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 682(%rax), %dl movb 682(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 683(%rax), %dl movb 683(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 684(%rax), %dl movb 684(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 685(%rax), %dl movb 685(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 686(%rax), %dl movb 686(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 687(%rax), %dl movb 687(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 688(%rax), %dl movb 688(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 689(%rax), %dl movb 689(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 690(%rax), %dl movb 690(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 691(%rax), %dl movb 691(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 692(%rax), %dl movb 692(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 693(%rax), %dl movb 693(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 694(%rax), %dl movb 694(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 695(%rax), %dl movb 695(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 696(%rax), %dl movb 696(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 697(%rax), %dl movb 697(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 698(%rax), %dl movb 698(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 699(%rax), %dl movb 699(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 700(%rax), %dl movb 700(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 701(%rax), %dl movb 701(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 702(%rax), %dl movb 702(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 703(%rax), %dl movb 703(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 704(%rax), %dl movb 704(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 705(%rax), %dl movb 705(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 706(%rax), %dl movb 706(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 707(%rax), %dl movb 707(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 708(%rax), %dl movb 708(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 709(%rax), %dl movb 709(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 710(%rax), %dl movb 710(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 711(%rax), %dl movb 711(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 712(%rax), %dl movb 712(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 713(%rax), %dl movb 713(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 714(%rax), %dl movb 714(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 715(%rax), %dl movb 715(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 716(%rax), %dl movb 716(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 717(%rax), %dl movb 717(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 718(%rax), %dl movb 718(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 719(%rax), %dl movb 719(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 720(%rax), %dl movb 720(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 721(%rax), %dl movb 721(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 722(%rax), %dl movb 722(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 723(%rax), %dl movb 723(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 724(%rax), %dl movb 724(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 725(%rax), %dl movb 725(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 726(%rax), %dl movb 726(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 727(%rax), %dl movb 727(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 728(%rax), %dl movb 728(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 729(%rax), %dl movb 729(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 730(%rax), %dl movb 730(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 731(%rax), %dl movb 731(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 732(%rax), %dl movb 732(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 733(%rax), %dl movb 733(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 734(%rax), %dl movb 734(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 735(%rax), %dl movb 735(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 736(%rax), %dl movb 736(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 737(%rax), %dl movb 737(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 738(%rax), %dl movb 738(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 739(%rax), %dl movb 739(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 740(%rax), %dl movb 740(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 741(%rax), %dl movb 741(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 742(%rax), %dl movb 742(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 743(%rax), %dl movb 743(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 744(%rax), %dl movb 744(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 745(%rax), %dl movb 745(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 746(%rax), %dl movb 746(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 747(%rax), %dl movb 747(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 748(%rax), %dl movb 748(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 749(%rax), %dl movb 749(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 750(%rax), %dl movb 750(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 751(%rax), %dl movb 751(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 752(%rax), %dl movb 752(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 753(%rax), %dl movb 753(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 754(%rax), %dl movb 754(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 755(%rax), %dl movb 755(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 756(%rax), %dl movb 756(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 757(%rax), %dl movb 757(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 758(%rax), %dl movb 758(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 759(%rax), %dl movb 759(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 760(%rax), %dl movb 760(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 761(%rax), %dl movb 761(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 762(%rax), %dl movb 762(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 763(%rax), %dl movb 763(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 764(%rax), %dl movb 764(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 765(%rax), %dl movb 765(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 766(%rax), %dl movb 766(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 767(%rax), %dl movb 767(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 768(%rax), %dl movb 768(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 769(%rax), %dl movb 769(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 770(%rax), %dl movb 770(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 771(%rax), %dl movb 771(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 772(%rax), %dl movb 772(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 773(%rax), %dl movb 773(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 774(%rax), %dl movb 774(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 775(%rax), %dl movb 775(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 776(%rax), %dl movb 776(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 777(%rax), %dl movb 777(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 778(%rax), %dl movb 778(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 779(%rax), %dl movb 779(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 780(%rax), %dl movb 780(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 781(%rax), %dl movb 781(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 782(%rax), %dl movb 782(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 783(%rax), %dl movb 783(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 784(%rax), %dl movb 784(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 785(%rax), %dl movb 785(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 786(%rax), %dl movb 786(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 787(%rax), %dl movb 787(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 788(%rax), %dl movb 788(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 789(%rax), %dl movb 789(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 790(%rax), %dl movb 790(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 791(%rax), %dl movb 791(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 792(%rax), %dl movb 792(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 793(%rax), %dl movb 793(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 794(%rax), %dl movb 794(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 795(%rax), %dl movb 795(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 796(%rax), %dl movb 796(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 797(%rax), %dl movb 797(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 798(%rax), %dl movb 798(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 799(%rax), %dl movb 799(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 800(%rax), %dl movb 800(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 801(%rax), %dl movb 801(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 802(%rax), %dl movb 802(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 803(%rax), %dl movb 803(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 804(%rax), %dl movb 804(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 805(%rax), %dl movb 805(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 806(%rax), %dl movb 806(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 807(%rax), %dl movb 807(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 808(%rax), %dl movb 808(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 809(%rax), %dl movb 809(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 810(%rax), %dl movb 810(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 811(%rax), %dl movb 811(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 812(%rax), %dl movb 812(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 813(%rax), %dl movb 813(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 814(%rax), %dl movb 814(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 815(%rax), %dl movb 815(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 816(%rax), %dl movb 816(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 817(%rax), %dl movb 817(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 818(%rax), %dl movb 818(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 819(%rax), %dl movb 819(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 820(%rax), %dl movb 820(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 821(%rax), %dl movb 821(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 822(%rax), %dl movb 822(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 823(%rax), %dl movb 823(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 824(%rax), %dl movb 824(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 825(%rax), %dl movb 825(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 826(%rax), %dl movb 826(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 827(%rax), %dl movb 827(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 828(%rax), %dl movb 828(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 829(%rax), %dl movb 829(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 830(%rax), %dl movb 830(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 831(%rax), %dl movb 831(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 832(%rax), %dl movb 832(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 833(%rax), %dl movb 833(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 834(%rax), %dl movb 834(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 835(%rax), %dl movb 835(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 836(%rax), %dl movb 836(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 837(%rax), %dl movb 837(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 838(%rax), %dl movb 838(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 839(%rax), %dl movb 839(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 840(%rax), %dl movb 840(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 841(%rax), %dl movb 841(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 842(%rax), %dl movb 842(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 843(%rax), %dl movb 843(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 844(%rax), %dl movb 844(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 845(%rax), %dl movb 845(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 846(%rax), %dl movb 846(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 847(%rax), %dl movb 847(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 848(%rax), %dl movb 848(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 849(%rax), %dl movb 849(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 850(%rax), %dl movb 850(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 851(%rax), %dl movb 851(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 852(%rax), %dl movb 852(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 853(%rax), %dl movb 853(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 854(%rax), %dl movb 854(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 855(%rax), %dl movb 855(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 856(%rax), %dl movb 856(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 857(%rax), %dl movb 857(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 858(%rax), %dl movb 858(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 859(%rax), %dl movb 859(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 860(%rax), %dl movb 860(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 861(%rax), %dl movb 861(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 862(%rax), %dl movb 862(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 863(%rax), %dl movb 863(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 864(%rax), %dl movb 864(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 865(%rax), %dl movb 865(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 866(%rax), %dl movb 866(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 867(%rax), %dl movb 867(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 868(%rax), %dl movb 868(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 869(%rax), %dl movb 869(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 870(%rax), %dl movb 870(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 871(%rax), %dl movb 871(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 872(%rax), %dl movb 872(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 873(%rax), %dl movb 873(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 874(%rax), %dl movb 874(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 875(%rax), %dl movb 875(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 876(%rax), %dl movb 876(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 877(%rax), %dl movb 877(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 878(%rax), %dl movb 878(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 879(%rax), %dl movb 879(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 880(%rax), %dl movb 880(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 881(%rax), %dl movb 881(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 882(%rax), %dl movb 882(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 883(%rax), %dl movb 883(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 884(%rax), %dl movb 884(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 885(%rax), %dl movb 885(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 886(%rax), %dl movb 886(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 887(%rax), %dl movb 887(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 888(%rax), %dl movb 888(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 889(%rax), %dl movb 889(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 890(%rax), %dl movb 890(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 891(%rax), %dl movb 891(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 892(%rax), %dl movb 892(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 893(%rax), %dl movb 893(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 894(%rax), %dl movb 894(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 895(%rax), %dl movb 895(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 896(%rax), %dl movb 896(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 897(%rax), %dl movb 897(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 898(%rax), %dl movb 898(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 899(%rax), %dl movb 899(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 900(%rax), %dl movb 900(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 901(%rax), %dl movb 901(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 902(%rax), %dl movb 902(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 903(%rax), %dl movb 903(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 904(%rax), %dl movb 904(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 905(%rax), %dl movb 905(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 906(%rax), %dl movb 906(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 907(%rax), %dl movb 907(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 908(%rax), %dl movb 908(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 909(%rax), %dl movb 909(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 910(%rax), %dl movb 910(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 911(%rax), %dl movb 911(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 912(%rax), %dl movb 912(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 913(%rax), %dl movb 913(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 914(%rax), %dl movb 914(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 915(%rax), %dl movb 915(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 916(%rax), %dl movb 916(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 917(%rax), %dl movb 917(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 918(%rax), %dl movb 918(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 919(%rax), %dl movb 919(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 920(%rax), %dl movb 920(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 921(%rax), %dl movb 921(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 922(%rax), %dl movb 922(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 923(%rax), %dl movb 923(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 924(%rax), %dl movb 924(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 925(%rax), %dl movb 925(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 926(%rax), %dl movb 926(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 927(%rax), %dl movb 927(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 928(%rax), %dl movb 928(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 929(%rax), %dl movb 929(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 930(%rax), %dl movb 930(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 931(%rax), %dl movb 931(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 932(%rax), %dl movb 932(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 933(%rax), %dl movb 933(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 934(%rax), %dl movb 934(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 935(%rax), %dl movb 935(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 936(%rax), %dl movb 936(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 937(%rax), %dl movb 937(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 938(%rax), %dl movb 938(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 939(%rax), %dl movb 939(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 940(%rax), %dl movb 940(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 941(%rax), %dl movb 941(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 942(%rax), %dl movb 942(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 943(%rax), %dl movb 943(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 944(%rax), %dl movb 944(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 945(%rax), %dl movb 945(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 946(%rax), %dl movb 946(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 947(%rax), %dl movb 947(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 948(%rax), %dl movb 948(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 949(%rax), %dl movb 949(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 950(%rax), %dl movb 950(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 951(%rax), %dl movb 951(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 952(%rax), %dl movb 952(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 953(%rax), %dl movb 953(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 954(%rax), %dl movb 954(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 955(%rax), %dl movb 955(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 956(%rax), %dl movb 956(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 957(%rax), %dl movb 957(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 958(%rax), %dl movb 958(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 959(%rax), %dl movb 959(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 960(%rax), %dl movb 960(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 961(%rax), %dl movb 961(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 962(%rax), %dl movb 962(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 963(%rax), %dl movb 963(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 964(%rax), %dl movb 964(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 965(%rax), %dl movb 965(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 966(%rax), %dl movb 966(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 967(%rax), %dl movb 967(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 968(%rax), %dl movb 968(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 969(%rax), %dl movb 969(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 970(%rax), %dl movb 970(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 971(%rax), %dl movb 971(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 972(%rax), %dl movb 972(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 973(%rax), %dl movb 973(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 974(%rax), %dl movb 974(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 975(%rax), %dl movb 975(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 976(%rax), %dl movb 976(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 977(%rax), %dl movb 977(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 978(%rax), %dl movb 978(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 979(%rax), %dl movb 979(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 980(%rax), %dl movb 980(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 981(%rax), %dl movb 981(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 982(%rax), %dl movb 982(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 983(%rax), %dl movb 983(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 984(%rax), %dl movb 984(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 985(%rax), %dl movb 985(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 986(%rax), %dl movb 986(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 987(%rax), %dl movb 987(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 988(%rax), %dl movb 988(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 989(%rax), %dl movb 989(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 990(%rax), %dl movb 990(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 991(%rax), %dl movb 991(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 992(%rax), %dl movb 992(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 993(%rax), %dl movb 993(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 994(%rax), %dl movb 994(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 995(%rax), %dl movb 995(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 996(%rax), %dl movb 996(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 997(%rax), %dl movb 997(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 998(%rax), %dl movb 998(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 999(%rax), %dl movb 999(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1000(%rax), %dl movb 1000(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1001(%rax), %dl movb 1001(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1002(%rax), %dl movb 1002(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1003(%rax), %dl movb 1003(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1004(%rax), %dl movb 1004(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1005(%rax), %dl movb 1005(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1006(%rax), %dl movb 1006(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1007(%rax), %dl movb 1007(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1008(%rax), %dl movb 1008(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1009(%rax), %dl movb 1009(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1010(%rax), %dl movb 1010(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1011(%rax), %dl movb 1011(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1012(%rax), %dl movb 1012(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1013(%rax), %dl movb 1013(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1014(%rax), %dl movb 1014(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1015(%rax), %dl movb 1015(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1016(%rax), %dl movb 1016(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1017(%rax), %dl movb 1017(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1018(%rax), %dl movb 1018(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1019(%rax), %dl movb 1019(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1020(%rax), %dl movb 1020(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1021(%rax), %dl movb 1021(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1022(%rax), %dl movb 1022(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1023(%rax), %dl movb 1023(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1024(%rax), %dl movb 1024(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1025(%rax), %dl movb 1025(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1026(%rax), %dl movb 1026(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1027(%rax), %dl movb 1027(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1028(%rax), %dl movb 1028(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1029(%rax), %dl movb 1029(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1030(%rax), %dl movb 1030(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1031(%rax), %dl movb 1031(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1032(%rax), %dl movb 1032(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1033(%rax), %dl movb 1033(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1034(%rax), %dl movb 1034(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1035(%rax), %dl movb 1035(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1036(%rax), %dl movb 1036(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1037(%rax), %dl movb 1037(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1038(%rax), %dl movb 1038(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1039(%rax), %dl movb 1039(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1040(%rax), %dl movb 1040(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1041(%rax), %dl movb 1041(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1042(%rax), %dl movb 1042(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1043(%rax), %dl movb 1043(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1044(%rax), %dl movb 1044(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1045(%rax), %dl movb 1045(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1046(%rax), %dl movb 1046(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1047(%rax), %dl movb 1047(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1048(%rax), %dl movb 1048(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1049(%rax), %dl movb 1049(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1050(%rax), %dl movb 1050(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1051(%rax), %dl movb 1051(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1052(%rax), %dl movb 1052(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1053(%rax), %dl movb 1053(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1054(%rax), %dl movb 1054(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1055(%rax), %dl movb 1055(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1056(%rax), %dl movb 1056(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1057(%rax), %dl movb 1057(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1058(%rax), %dl movb 1058(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1059(%rax), %dl movb 1059(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1060(%rax), %dl movb 1060(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1061(%rax), %dl movb 1061(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1062(%rax), %dl movb 1062(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1063(%rax), %dl movb 1063(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1064(%rax), %dl movb 1064(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1065(%rax), %dl movb 1065(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1066(%rax), %dl movb 1066(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1067(%rax), %dl movb 1067(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1068(%rax), %dl movb 1068(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1069(%rax), %dl movb 1069(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1070(%rax), %dl movb 1070(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1071(%rax), %dl movb 1071(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1072(%rax), %dl movb 1072(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1073(%rax), %dl movb 1073(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1074(%rax), %dl movb 1074(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1075(%rax), %dl movb 1075(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1076(%rax), %dl movb 1076(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1077(%rax), %dl movb 1077(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1078(%rax), %dl movb 1078(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1079(%rax), %dl movb 1079(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1080(%rax), %dl movb 1080(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1081(%rax), %dl movb 1081(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1082(%rax), %dl movb 1082(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1083(%rax), %dl movb 1083(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1084(%rax), %dl movb 1084(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1085(%rax), %dl movb 1085(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1086(%rax), %dl movb 1086(%rsi), %dil xorb %dil, %dl movzbq %dl, %rdx orq %rdx, %rcx movb 1087(%rax), %al movb 1087(%rsi), %dl xorb %dl, %al movzbq %al, %rax orq %rax, %rcx negq %rcx shrq $63, %rcx movq 16(%rsp), %rax addq $64, %rax addq $2304, %rax leaq 144(%rsp), %rdx negq %rcx movb (%rdx), %dil movb (%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, (%rdx) movb 1(%rdx), %dil movb 1(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 1(%rdx) movb 2(%rdx), %dil movb 2(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 2(%rdx) movb 3(%rdx), %dil movb 3(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 3(%rdx) movb 4(%rdx), %dil movb 4(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 4(%rdx) movb 5(%rdx), %dil movb 5(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 5(%rdx) movb 6(%rdx), %dil movb 6(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 6(%rdx) movb 7(%rdx), %dil movb 7(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 7(%rdx) movb 8(%rdx), %dil movb 8(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 8(%rdx) movb 9(%rdx), %dil movb 9(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 9(%rdx) movb 10(%rdx), %dil movb 10(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 10(%rdx) movb 11(%rdx), %dil movb 11(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 11(%rdx) movb 12(%rdx), %dil movb 12(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 12(%rdx) movb 13(%rdx), %dil movb 13(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 13(%rdx) movb 14(%rdx), %dil movb 14(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 14(%rdx) movb 15(%rdx), %dil movb 15(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 15(%rdx) movb 16(%rdx), %dil movb 16(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 16(%rdx) movb 17(%rdx), %dil movb 17(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 17(%rdx) movb 18(%rdx), %dil movb 18(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 18(%rdx) movb 19(%rdx), %dil movb 19(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 19(%rdx) movb 20(%rdx), %dil movb 20(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 20(%rdx) movb 21(%rdx), %dil movb 21(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 21(%rdx) movb 22(%rdx), %dil movb 22(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 22(%rdx) movb 23(%rdx), %dil movb 23(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 23(%rdx) movb 24(%rdx), %dil movb 24(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 24(%rdx) movb 25(%rdx), %dil movb 25(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 25(%rdx) movb 26(%rdx), %dil movb 26(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 26(%rdx) movb 27(%rdx), %dil movb 27(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 27(%rdx) movb 28(%rdx), %dil movb 28(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 28(%rdx) movb 29(%rdx), %dil movb 29(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 29(%rdx) movb 30(%rdx), %dil movb 30(%rax), %r8b xorb %dil, %r8b andb %cl, %r8b xorb %r8b, %dil movb %dil, 30(%rdx) movb 31(%rdx), %dil movb 31(%rax), %al xorb %dil, %al andb %cl, %al xorb %al, %dil movb %dil, 31(%rdx) movq $1088, %rax leaq 176(%rsp), %rcx leaq -232(%rsp), %rsp call L_sha3_256$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$2: leaq 232(%rsp), %rsp movq (%rsp), %rax movq $32, %rcx leaq 144(%rsp), %rdx leaq -216(%rsp), %rsp call L_shake256_64$1 Ljade_kem_kyber_kyber768_amd64_ref_dec$1: leaq 216(%rsp), %rsp xorq %rax, %rax movq 14504(%rsp), %r15 movq 14512(%rsp), %r14 movq 14520(%rsp), %r13 movq 14528(%rsp), %r12 movq 14536(%rsp), %rbp movq 14544(%rsp), %rbx movq 14552(%rsp), %rsp ret _jade_kem_kyber_kyber768_amd64_ref_enc_derand: jade_kem_kyber_kyber768_amd64_ref_enc_derand: movq %rsp, %rax leaq -88(%rsp), %rsp andq $-8, %rsp movq %rax, 80(%rsp) movq %r15, 32(%rsp) movq %r14, 40(%rsp) movq %r13, 48(%rsp) movq %r12, 56(%rsp) movq %rbp, 64(%rsp) movq %rbx, 72(%rsp) movq %rsp, %rax movb (%rcx), %r8b movb %r8b, (%rax) movb 1(%rcx), %r8b movb %r8b, 1(%rax) movb 2(%rcx), %r8b movb %r8b, 2(%rax) movb 3(%rcx), %r8b movb %r8b, 3(%rax) movb 4(%rcx), %r8b movb %r8b, 4(%rax) movb 5(%rcx), %r8b movb %r8b, 5(%rax) movb 6(%rcx), %r8b movb %r8b, 6(%rax) movb 7(%rcx), %r8b movb %r8b, 7(%rax) movb 8(%rcx), %r8b movb %r8b, 8(%rax) movb 9(%rcx), %r8b movb %r8b, 9(%rax) movb 10(%rcx), %r8b movb %r8b, 10(%rax) movb 11(%rcx), %r8b movb %r8b, 11(%rax) movb 12(%rcx), %r8b movb %r8b, 12(%rax) movb 13(%rcx), %r8b movb %r8b, 13(%rax) movb 14(%rcx), %r8b movb %r8b, 14(%rax) movb 15(%rcx), %r8b movb %r8b, 15(%rax) movb 16(%rcx), %r8b movb %r8b, 16(%rax) movb 17(%rcx), %r8b movb %r8b, 17(%rax) movb 18(%rcx), %r8b movb %r8b, 18(%rax) movb 19(%rcx), %r8b movb %r8b, 19(%rax) movb 20(%rcx), %r8b movb %r8b, 20(%rax) movb 21(%rcx), %r8b movb %r8b, 21(%rax) movb 22(%rcx), %r8b movb %r8b, 22(%rax) movb 23(%rcx), %r8b movb %r8b, 23(%rax) movb 24(%rcx), %r8b movb %r8b, 24(%rax) movb 25(%rcx), %r8b movb %r8b, 25(%rax) movb 26(%rcx), %r8b movb %r8b, 26(%rax) movb 27(%rcx), %r8b movb %r8b, 27(%rax) movb 28(%rcx), %r8b movb %r8b, 28(%rax) movb 29(%rcx), %r8b movb %r8b, 29(%rax) movb 30(%rcx), %r8b movb %r8b, 30(%rax) movb 31(%rcx), %cl movb %cl, 31(%rax) movq %rsp, %rax leaq -13400(%rsp), %rsp call L_crypto_kem_enc_derand_jazz$1 Ljade_kem_kyber_kyber768_amd64_ref_enc_derand$1: leaq 13400(%rsp), %rsp xorq %rax, %rax movq 32(%rsp), %r15 movq 40(%rsp), %r14 movq 48(%rsp), %r13 movq 56(%rsp), %r12 movq 64(%rsp), %rbp movq 72(%rsp), %rbx movq 80(%rsp), %rsp ret _jade_kem_kyber_kyber768_amd64_ref_keypair_derand: jade_kem_kyber_kyber768_amd64_ref_keypair_derand: movq %rsp, %rax leaq -120(%rsp), %rsp andq $-8, %rsp movq %rax, 112(%rsp) movq %r15, 64(%rsp) movq %r14, 72(%rsp) movq %r13, 80(%rsp) movq %r12, 88(%rsp) movq %rbp, 96(%rsp) movq %rbx, 104(%rsp) movq %rsp, %rax movb (%rdx), %cl movb %cl, (%rax) movb 1(%rdx), %cl movb %cl, 1(%rax) movb 2(%rdx), %cl movb %cl, 2(%rax) movb 3(%rdx), %cl movb %cl, 3(%rax) movb 4(%rdx), %cl movb %cl, 4(%rax) movb 5(%rdx), %cl movb %cl, 5(%rax) movb 6(%rdx), %cl movb %cl, 6(%rax) movb 7(%rdx), %cl movb %cl, 7(%rax) movb 8(%rdx), %cl movb %cl, 8(%rax) movb 9(%rdx), %cl movb %cl, 9(%rax) movb 10(%rdx), %cl movb %cl, 10(%rax) movb 11(%rdx), %cl movb %cl, 11(%rax) movb 12(%rdx), %cl movb %cl, 12(%rax) movb 13(%rdx), %cl movb %cl, 13(%rax) movb 14(%rdx), %cl movb %cl, 14(%rax) movb 15(%rdx), %cl movb %cl, 15(%rax) movb 16(%rdx), %cl movb %cl, 16(%rax) movb 17(%rdx), %cl movb %cl, 17(%rax) movb 18(%rdx), %cl movb %cl, 18(%rax) movb 19(%rdx), %cl movb %cl, 19(%rax) movb 20(%rdx), %cl movb %cl, 20(%rax) movb 21(%rdx), %cl movb %cl, 21(%rax) movb 22(%rdx), %cl movb %cl, 22(%rax) movb 23(%rdx), %cl movb %cl, 23(%rax) movb 24(%rdx), %cl movb %cl, 24(%rax) movb 25(%rdx), %cl movb %cl, 25(%rax) movb 26(%rdx), %cl movb %cl, 26(%rax) movb 27(%rdx), %cl movb %cl, 27(%rax) movb 28(%rdx), %cl movb %cl, 28(%rax) movb 29(%rdx), %cl movb %cl, 29(%rax) movb 30(%rdx), %cl movb %cl, 30(%rax) movb 31(%rdx), %cl movb %cl, 31(%rax) movb 32(%rdx), %cl movb %cl, 32(%rax) movb 33(%rdx), %cl movb %cl, 33(%rax) movb 34(%rdx), %cl movb %cl, 34(%rax) movb 35(%rdx), %cl movb %cl, 35(%rax) movb 36(%rdx), %cl movb %cl, 36(%rax) movb 37(%rdx), %cl movb %cl, 37(%rax) movb 38(%rdx), %cl movb %cl, 38(%rax) movb 39(%rdx), %cl movb %cl, 39(%rax) movb 40(%rdx), %cl movb %cl, 40(%rax) movb 41(%rdx), %cl movb %cl, 41(%rax) movb 42(%rdx), %cl movb %cl, 42(%rax) movb 43(%rdx), %cl movb %cl, 43(%rax) movb 44(%rdx), %cl movb %cl, 44(%rax) movb 45(%rdx), %cl movb %cl, 45(%rax) movb 46(%rdx), %cl movb %cl, 46(%rax) movb 47(%rdx), %cl movb %cl, 47(%rax) movb 48(%rdx), %cl movb %cl, 48(%rax) movb 49(%rdx), %cl movb %cl, 49(%rax) movb 50(%rdx), %cl movb %cl, 50(%rax) movb 51(%rdx), %cl movb %cl, 51(%rax) movb 52(%rdx), %cl movb %cl, 52(%rax) movb 53(%rdx), %cl movb %cl, 53(%rax) movb 54(%rdx), %cl movb %cl, 54(%rax) movb 55(%rdx), %cl movb %cl, 55(%rax) movb 56(%rdx), %cl movb %cl, 56(%rax) movb 57(%rdx), %cl movb %cl, 57(%rax) movb 58(%rdx), %cl movb %cl, 58(%rax) movb 59(%rdx), %cl movb %cl, 59(%rax) movb 60(%rdx), %cl movb %cl, 60(%rax) movb 61(%rdx), %cl movb %cl, 61(%rax) movb 62(%rdx), %cl movb %cl, 62(%rax) movb 63(%rdx), %cl movb %cl, 63(%rax) movq %rsp, %rax leaq -10320(%rsp), %rsp call L_crypto_kem_keypair_derand_jazz$1 Ljade_kem_kyber_kyber768_amd64_ref_keypair_derand$1: leaq 10320(%rsp), %rsp xorq %rax, %rax movq 64(%rsp), %r15 movq 72(%rsp), %r14 movq 80(%rsp), %r13 movq 88(%rsp), %r12 movq 96(%rsp), %rbp movq 104(%rsp), %rbx movq 112(%rsp), %rsp ret L_crypto_kem_enc_derand_jazz$1: movq %rdx, 8(%rsp) movq %rdi, 16(%rsp) movq %rsi, 24(%rsp) movq (%rax), %rcx movq %rcx, 72(%rsp) movq 8(%rax), %rcx movq %rcx, 80(%rsp) movq 16(%rax), %rcx movq %rcx, 88(%rsp) movq 24(%rax), %rax movq %rax, 96(%rsp) leaq 136(%rsp), %rax leaq 72(%rsp), %rdx leaq -208(%rsp), %rsp call L_sha3_256_32$1 L_crypto_kem_enc_derand_jazz$208: leaq 208(%rsp), %rsp movq 8(%rsp), %rsi movq $1184, %rax leaq 168(%rsp), %rcx leaq -232(%rsp), %rsp call L_sha3_256$1 L_crypto_kem_enc_derand_jazz$207: leaq 232(%rsp), %rsp leaq 72(%rsp), %rax leaq 136(%rsp), %rdx leaq -208(%rsp), %rsp call L_sha3_512_64$1 L_crypto_kem_enc_derand_jazz$206: leaq 208(%rsp), %rsp movq 8(%rsp), %rdx leaq 136(%rsp), %rcx leaq 104(%rsp), %rax movq %rdx, %rsi leaq 2448(%rsp), %rdi call L_poly_frombytes$1 L_crypto_kem_enc_derand_jazz$205: addq $384, %rsi leaq 2960(%rsp), %rdi call L_poly_frombytes$1 L_crypto_kem_enc_derand_jazz$204: addq $384, %rsi leaq 3472(%rsp), %rdi call L_poly_frombytes$1 L_crypto_kem_enc_derand_jazz$203: movq $0, %rsi addq $1152, %rdx jmp L_crypto_kem_enc_derand_jazz$201 L_crypto_kem_enc_derand_jazz$202: movq (%rdx), %rdi movq %rdi, 40(%rsp,%rsi,8) addq $8, %rdx incq %rsi L_crypto_kem_enc_derand_jazz$201: cmpq $4, %rsi jb L_crypto_kem_enc_derand_jazz$202 leaq 912(%rsp), %rdx call L_i_poly_frommsg$1 L_crypto_kem_enc_derand_jazz$200: movq $1, %rcx movq %rcx, 8(%rsp) movb 40(%rsp), %cl movb %cl, 13200(%rsp) movb 41(%rsp), %cl movb %cl, 13201(%rsp) movb 42(%rsp), %cl movb %cl, 13202(%rsp) movb 43(%rsp), %cl movb %cl, 13203(%rsp) movb 44(%rsp), %cl movb %cl, 13204(%rsp) movb 45(%rsp), %cl movb %cl, 13205(%rsp) movb 46(%rsp), %cl movb %cl, 13206(%rsp) movb 47(%rsp), %cl movb %cl, 13207(%rsp) movb 48(%rsp), %cl movb %cl, 13208(%rsp) movb 49(%rsp), %cl movb %cl, 13209(%rsp) movb 50(%rsp), %cl movb %cl, 13210(%rsp) movb 51(%rsp), %cl movb %cl, 13211(%rsp) movb 52(%rsp), %cl movb %cl, 13212(%rsp) movb 53(%rsp), %cl movb %cl, 13213(%rsp) movb 54(%rsp), %cl movb %cl, 13214(%rsp) movb 55(%rsp), %cl movb %cl, 13215(%rsp) movb 56(%rsp), %cl movb %cl, 13216(%rsp) movb 57(%rsp), %cl movb %cl, 13217(%rsp) movb 58(%rsp), %cl movb %cl, 13218(%rsp) movb 59(%rsp), %cl movb %cl, 13219(%rsp) movb 60(%rsp), %cl movb %cl, 13220(%rsp) movb 61(%rsp), %cl movb %cl, 13221(%rsp) movb 62(%rsp), %cl movb %cl, 13222(%rsp) movb 63(%rsp), %cl movb %cl, 13223(%rsp) movb 64(%rsp), %cl movb %cl, 13224(%rsp) movb 65(%rsp), %cl movb %cl, 13225(%rsp) movb 66(%rsp), %cl movb %cl, 13226(%rsp) movb 67(%rsp), %cl movb %cl, 13227(%rsp) movb 68(%rsp), %cl movb %cl, 13228(%rsp) movb 69(%rsp), %cl movb %cl, 13229(%rsp) movb 70(%rsp), %cl movb %cl, 13230(%rsp) movb 71(%rsp), %cl movb %cl, 13231(%rsp) movq 8(%rsp), %rcx cmpq $0, %rcx je L_crypto_kem_enc_derand_jazz$198 movb $0, 13232(%rsp) movb $0, 13233(%rsp) jmp L_crypto_kem_enc_derand_jazz$199 L_crypto_kem_enc_derand_jazz$198: movb $0, 13232(%rsp) movb $0, 13233(%rsp) L_crypto_kem_enc_derand_jazz$199: leaq 200(%rsp), %rcx leaq 13200(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_enc_derand_jazz$197: movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$195 L_crypto_kem_enc_derand_jazz$196: movq %rcx, 400(%rsp,%rcx,8) incq %rcx L_crypto_kem_enc_derand_jazz$195: cmpq $64, %rcx jb L_crypto_kem_enc_derand_jazz$196 movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$187 L_crypto_kem_enc_derand_jazz$188: movq %rcx, 32(%rsp) leaq 200(%rsp), %rcx leaq 13234(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_enc_derand_jazz$194: leaq 8(%rsp), %rsp movq 32(%rsp), %rcx movq $0, %rdx L_crypto_kem_enc_derand_jazz$189: movzbw 13234(%rsp,%rdx), %si incq %rdx movzbw 13234(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13234(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb L_crypto_kem_enc_derand_jazz$192 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$192 movw %si, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$193: L_crypto_kem_enc_derand_jazz$192: cmpw $3329, %r8w jnb L_crypto_kem_enc_derand_jazz$190 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$190 movw %r8w, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$191: L_crypto_kem_enc_derand_jazz$190: cmpq $166, %rdx jb L_crypto_kem_enc_derand_jazz$189 L_crypto_kem_enc_derand_jazz$187: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$188 movq $0, %rcx movq $0, %rdx jmp L_crypto_kem_enc_derand_jazz$185 L_crypto_kem_enc_derand_jazz$186: movw 400(%rsp,%rcx,2), %si movw %si, 8592(%rsp,%rdx,2) incq %rcx incq %rdx L_crypto_kem_enc_derand_jazz$185: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$186 movq 8(%rsp), %rcx cmpq $0, %rcx je L_crypto_kem_enc_derand_jazz$183 movb $0, 13232(%rsp) movb $1, 13233(%rsp) jmp L_crypto_kem_enc_derand_jazz$184 L_crypto_kem_enc_derand_jazz$183: movb $1, 13232(%rsp) movb $0, 13233(%rsp) L_crypto_kem_enc_derand_jazz$184: leaq 200(%rsp), %rcx leaq 13200(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_enc_derand_jazz$182: movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$180 L_crypto_kem_enc_derand_jazz$181: movq %rcx, 400(%rsp,%rcx,8) incq %rcx L_crypto_kem_enc_derand_jazz$180: cmpq $64, %rcx jb L_crypto_kem_enc_derand_jazz$181 movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$172 L_crypto_kem_enc_derand_jazz$173: movq %rcx, 32(%rsp) leaq 200(%rsp), %rcx leaq 13234(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_enc_derand_jazz$179: leaq 8(%rsp), %rsp movq 32(%rsp), %rcx movq $0, %rdx L_crypto_kem_enc_derand_jazz$174: movzbw 13234(%rsp,%rdx), %si incq %rdx movzbw 13234(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13234(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb L_crypto_kem_enc_derand_jazz$177 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$177 movw %si, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$178: L_crypto_kem_enc_derand_jazz$177: cmpw $3329, %r8w jnb L_crypto_kem_enc_derand_jazz$175 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$175 movw %r8w, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$176: L_crypto_kem_enc_derand_jazz$175: cmpq $166, %rdx jb L_crypto_kem_enc_derand_jazz$174 L_crypto_kem_enc_derand_jazz$172: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$173 movq $0, %rcx movq $256, %rdx jmp L_crypto_kem_enc_derand_jazz$170 L_crypto_kem_enc_derand_jazz$171: movw 400(%rsp,%rcx,2), %si movw %si, 8592(%rsp,%rdx,2) incq %rcx incq %rdx L_crypto_kem_enc_derand_jazz$170: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$171 movq 8(%rsp), %rcx cmpq $0, %rcx je L_crypto_kem_enc_derand_jazz$168 movb $0, 13232(%rsp) movb $2, 13233(%rsp) jmp L_crypto_kem_enc_derand_jazz$169 L_crypto_kem_enc_derand_jazz$168: movb $2, 13232(%rsp) movb $0, 13233(%rsp) L_crypto_kem_enc_derand_jazz$169: leaq 200(%rsp), %rcx leaq 13200(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_enc_derand_jazz$167: movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$165 L_crypto_kem_enc_derand_jazz$166: movq %rcx, 400(%rsp,%rcx,8) incq %rcx L_crypto_kem_enc_derand_jazz$165: cmpq $64, %rcx jb L_crypto_kem_enc_derand_jazz$166 movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$157 L_crypto_kem_enc_derand_jazz$158: movq %rcx, 32(%rsp) leaq 200(%rsp), %rcx leaq 13234(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_enc_derand_jazz$164: leaq 8(%rsp), %rsp movq 32(%rsp), %rcx movq $0, %rdx L_crypto_kem_enc_derand_jazz$159: movzbw 13234(%rsp,%rdx), %si incq %rdx movzbw 13234(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13234(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb L_crypto_kem_enc_derand_jazz$162 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$162 movw %si, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$163: L_crypto_kem_enc_derand_jazz$162: cmpw $3329, %r8w jnb L_crypto_kem_enc_derand_jazz$160 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$160 movw %r8w, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$161: L_crypto_kem_enc_derand_jazz$160: cmpq $166, %rdx jb L_crypto_kem_enc_derand_jazz$159 L_crypto_kem_enc_derand_jazz$157: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$158 movq $0, %rcx movq $512, %rdx jmp L_crypto_kem_enc_derand_jazz$155 L_crypto_kem_enc_derand_jazz$156: movw 400(%rsp,%rcx,2), %si movw %si, 8592(%rsp,%rdx,2) incq %rcx incq %rdx L_crypto_kem_enc_derand_jazz$155: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$156 movq 8(%rsp), %rcx cmpq $0, %rcx je L_crypto_kem_enc_derand_jazz$153 movb $1, 13232(%rsp) movb $0, 13233(%rsp) jmp L_crypto_kem_enc_derand_jazz$154 L_crypto_kem_enc_derand_jazz$153: movb $0, 13232(%rsp) movb $1, 13233(%rsp) L_crypto_kem_enc_derand_jazz$154: leaq 200(%rsp), %rcx leaq 13200(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_enc_derand_jazz$152: movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$150 L_crypto_kem_enc_derand_jazz$151: movq %rcx, 400(%rsp,%rcx,8) incq %rcx L_crypto_kem_enc_derand_jazz$150: cmpq $64, %rcx jb L_crypto_kem_enc_derand_jazz$151 movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$142 L_crypto_kem_enc_derand_jazz$143: movq %rcx, 32(%rsp) leaq 200(%rsp), %rcx leaq 13234(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_enc_derand_jazz$149: leaq 8(%rsp), %rsp movq 32(%rsp), %rcx movq $0, %rdx L_crypto_kem_enc_derand_jazz$144: movzbw 13234(%rsp,%rdx), %si incq %rdx movzbw 13234(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13234(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb L_crypto_kem_enc_derand_jazz$147 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$147 movw %si, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$148: L_crypto_kem_enc_derand_jazz$147: cmpw $3329, %r8w jnb L_crypto_kem_enc_derand_jazz$145 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$145 movw %r8w, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$146: L_crypto_kem_enc_derand_jazz$145: cmpq $166, %rdx jb L_crypto_kem_enc_derand_jazz$144 L_crypto_kem_enc_derand_jazz$142: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$143 movq $0, %rcx movq $768, %rdx jmp L_crypto_kem_enc_derand_jazz$140 L_crypto_kem_enc_derand_jazz$141: movw 400(%rsp,%rcx,2), %si movw %si, 8592(%rsp,%rdx,2) incq %rcx incq %rdx L_crypto_kem_enc_derand_jazz$140: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$141 movq 8(%rsp), %rcx cmpq $0, %rcx je L_crypto_kem_enc_derand_jazz$138 movb $1, 13232(%rsp) movb $1, 13233(%rsp) jmp L_crypto_kem_enc_derand_jazz$139 L_crypto_kem_enc_derand_jazz$138: movb $1, 13232(%rsp) movb $1, 13233(%rsp) L_crypto_kem_enc_derand_jazz$139: leaq 200(%rsp), %rcx leaq 13200(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_enc_derand_jazz$137: movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$135 L_crypto_kem_enc_derand_jazz$136: movq %rcx, 400(%rsp,%rcx,8) incq %rcx L_crypto_kem_enc_derand_jazz$135: cmpq $64, %rcx jb L_crypto_kem_enc_derand_jazz$136 movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$127 L_crypto_kem_enc_derand_jazz$128: movq %rcx, 32(%rsp) leaq 200(%rsp), %rcx leaq 13234(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_enc_derand_jazz$134: leaq 8(%rsp), %rsp movq 32(%rsp), %rcx movq $0, %rdx L_crypto_kem_enc_derand_jazz$129: movzbw 13234(%rsp,%rdx), %si incq %rdx movzbw 13234(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13234(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb L_crypto_kem_enc_derand_jazz$132 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$132 movw %si, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$133: L_crypto_kem_enc_derand_jazz$132: cmpw $3329, %r8w jnb L_crypto_kem_enc_derand_jazz$130 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$130 movw %r8w, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$131: L_crypto_kem_enc_derand_jazz$130: cmpq $166, %rdx jb L_crypto_kem_enc_derand_jazz$129 L_crypto_kem_enc_derand_jazz$127: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$128 movq $0, %rcx movq $1024, %rdx jmp L_crypto_kem_enc_derand_jazz$125 L_crypto_kem_enc_derand_jazz$126: movw 400(%rsp,%rcx,2), %si movw %si, 8592(%rsp,%rdx,2) incq %rcx incq %rdx L_crypto_kem_enc_derand_jazz$125: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$126 movq 8(%rsp), %rcx cmpq $0, %rcx je L_crypto_kem_enc_derand_jazz$123 movb $1, 13232(%rsp) movb $2, 13233(%rsp) jmp L_crypto_kem_enc_derand_jazz$124 L_crypto_kem_enc_derand_jazz$123: movb $2, 13232(%rsp) movb $1, 13233(%rsp) L_crypto_kem_enc_derand_jazz$124: leaq 200(%rsp), %rcx leaq 13200(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_enc_derand_jazz$122: movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$120 L_crypto_kem_enc_derand_jazz$121: movq %rcx, 400(%rsp,%rcx,8) incq %rcx L_crypto_kem_enc_derand_jazz$120: cmpq $64, %rcx jb L_crypto_kem_enc_derand_jazz$121 movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$112 L_crypto_kem_enc_derand_jazz$113: movq %rcx, 32(%rsp) leaq 200(%rsp), %rcx leaq 13234(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_enc_derand_jazz$119: leaq 8(%rsp), %rsp movq 32(%rsp), %rcx movq $0, %rdx L_crypto_kem_enc_derand_jazz$114: movzbw 13234(%rsp,%rdx), %si incq %rdx movzbw 13234(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13234(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb L_crypto_kem_enc_derand_jazz$117 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$117 movw %si, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$118: L_crypto_kem_enc_derand_jazz$117: cmpw $3329, %r8w jnb L_crypto_kem_enc_derand_jazz$115 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$115 movw %r8w, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$116: L_crypto_kem_enc_derand_jazz$115: cmpq $166, %rdx jb L_crypto_kem_enc_derand_jazz$114 L_crypto_kem_enc_derand_jazz$112: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$113 movq $0, %rcx movq $1280, %rdx jmp L_crypto_kem_enc_derand_jazz$110 L_crypto_kem_enc_derand_jazz$111: movw 400(%rsp,%rcx,2), %si movw %si, 8592(%rsp,%rdx,2) incq %rcx incq %rdx L_crypto_kem_enc_derand_jazz$110: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$111 movq 8(%rsp), %rcx cmpq $0, %rcx je L_crypto_kem_enc_derand_jazz$108 movb $2, 13232(%rsp) movb $0, 13233(%rsp) jmp L_crypto_kem_enc_derand_jazz$109 L_crypto_kem_enc_derand_jazz$108: movb $0, 13232(%rsp) movb $2, 13233(%rsp) L_crypto_kem_enc_derand_jazz$109: leaq 200(%rsp), %rcx leaq 13200(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_enc_derand_jazz$107: movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$105 L_crypto_kem_enc_derand_jazz$106: movq %rcx, 400(%rsp,%rcx,8) incq %rcx L_crypto_kem_enc_derand_jazz$105: cmpq $64, %rcx jb L_crypto_kem_enc_derand_jazz$106 movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$97 L_crypto_kem_enc_derand_jazz$98: movq %rcx, 32(%rsp) leaq 200(%rsp), %rcx leaq 13234(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_enc_derand_jazz$104: leaq 8(%rsp), %rsp movq 32(%rsp), %rcx movq $0, %rdx L_crypto_kem_enc_derand_jazz$99: movzbw 13234(%rsp,%rdx), %si incq %rdx movzbw 13234(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13234(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb L_crypto_kem_enc_derand_jazz$102 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$102 movw %si, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$103: L_crypto_kem_enc_derand_jazz$102: cmpw $3329, %r8w jnb L_crypto_kem_enc_derand_jazz$100 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$100 movw %r8w, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$101: L_crypto_kem_enc_derand_jazz$100: cmpq $166, %rdx jb L_crypto_kem_enc_derand_jazz$99 L_crypto_kem_enc_derand_jazz$97: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$98 movq $0, %rcx movq $1536, %rdx jmp L_crypto_kem_enc_derand_jazz$95 L_crypto_kem_enc_derand_jazz$96: movw 400(%rsp,%rcx,2), %si movw %si, 8592(%rsp,%rdx,2) incq %rcx incq %rdx L_crypto_kem_enc_derand_jazz$95: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$96 movq 8(%rsp), %rcx cmpq $0, %rcx je L_crypto_kem_enc_derand_jazz$93 movb $2, 13232(%rsp) movb $1, 13233(%rsp) jmp L_crypto_kem_enc_derand_jazz$94 L_crypto_kem_enc_derand_jazz$93: movb $1, 13232(%rsp) movb $2, 13233(%rsp) L_crypto_kem_enc_derand_jazz$94: leaq 200(%rsp), %rcx leaq 13200(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_enc_derand_jazz$92: movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$90 L_crypto_kem_enc_derand_jazz$91: movq %rcx, 400(%rsp,%rcx,8) incq %rcx L_crypto_kem_enc_derand_jazz$90: cmpq $64, %rcx jb L_crypto_kem_enc_derand_jazz$91 movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$82 L_crypto_kem_enc_derand_jazz$83: movq %rcx, 32(%rsp) leaq 200(%rsp), %rcx leaq 13234(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_enc_derand_jazz$89: leaq 8(%rsp), %rsp movq 32(%rsp), %rcx movq $0, %rdx L_crypto_kem_enc_derand_jazz$84: movzbw 13234(%rsp,%rdx), %si incq %rdx movzbw 13234(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13234(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb L_crypto_kem_enc_derand_jazz$87 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$87 movw %si, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$88: L_crypto_kem_enc_derand_jazz$87: cmpw $3329, %r8w jnb L_crypto_kem_enc_derand_jazz$85 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$85 movw %r8w, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$86: L_crypto_kem_enc_derand_jazz$85: cmpq $166, %rdx jb L_crypto_kem_enc_derand_jazz$84 L_crypto_kem_enc_derand_jazz$82: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$83 movq $0, %rcx movq $1792, %rdx jmp L_crypto_kem_enc_derand_jazz$80 L_crypto_kem_enc_derand_jazz$81: movw 400(%rsp,%rcx,2), %si movw %si, 8592(%rsp,%rdx,2) incq %rcx incq %rdx L_crypto_kem_enc_derand_jazz$80: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$81 movq 8(%rsp), %rcx cmpq $0, %rcx je L_crypto_kem_enc_derand_jazz$78 movb $2, 13232(%rsp) movb $2, 13233(%rsp) jmp L_crypto_kem_enc_derand_jazz$79 L_crypto_kem_enc_derand_jazz$78: movb $2, 13232(%rsp) movb $2, 13233(%rsp) L_crypto_kem_enc_derand_jazz$79: leaq 200(%rsp), %rcx leaq 13200(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_enc_derand_jazz$77: movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$75 L_crypto_kem_enc_derand_jazz$76: movq %rcx, 400(%rsp,%rcx,8) incq %rcx L_crypto_kem_enc_derand_jazz$75: cmpq $64, %rcx jb L_crypto_kem_enc_derand_jazz$76 movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$67 L_crypto_kem_enc_derand_jazz$68: movq %rcx, 8(%rsp) leaq 200(%rsp), %rcx leaq 13234(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_enc_derand_jazz$74: leaq 8(%rsp), %rsp movq 8(%rsp), %rcx movq $0, %rdx L_crypto_kem_enc_derand_jazz$69: movzbw 13234(%rsp,%rdx), %si incq %rdx movzbw 13234(%rsp,%rdx), %di movw %di, %r8w shrw $4, %r8w andw $15, %di shlw $8, %di orw %di, %si incq %rdx movzbw 13234(%rsp,%rdx), %di shlw $4, %di orw %di, %r8w incq %rdx cmpw $3329, %si jnb L_crypto_kem_enc_derand_jazz$72 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$72 movw %si, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$73: L_crypto_kem_enc_derand_jazz$72: cmpw $3329, %r8w jnb L_crypto_kem_enc_derand_jazz$70 cmpq $256, %rcx jnb L_crypto_kem_enc_derand_jazz$70 movw %r8w, 400(%rsp,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$71: L_crypto_kem_enc_derand_jazz$70: cmpq $166, %rdx jb L_crypto_kem_enc_derand_jazz$69 L_crypto_kem_enc_derand_jazz$67: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$68 movq $0, %rcx movq $2048, %rdx jmp L_crypto_kem_enc_derand_jazz$65 L_crypto_kem_enc_derand_jazz$66: movw 400(%rsp,%rcx,2), %si movw %si, 8592(%rsp,%rdx,2) incq %rcx incq %rdx L_crypto_kem_enc_derand_jazz$65: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$66 movb $0, %cl leaq 3984(%rsp), %rdx leaq -176(%rsp), %rsp call L_poly_getnoise$1 L_crypto_kem_enc_derand_jazz$64: leaq 176(%rsp), %rsp movb $1, %cl leaq 4496(%rsp), %rdx leaq -176(%rsp), %rsp call L_poly_getnoise$1 L_crypto_kem_enc_derand_jazz$63: leaq 176(%rsp), %rsp movb $2, %cl leaq 5008(%rsp), %rdx leaq -176(%rsp), %rsp call L_poly_getnoise$1 L_crypto_kem_enc_derand_jazz$62: leaq 176(%rsp), %rsp movb $3, %cl leaq 5520(%rsp), %rdx leaq -176(%rsp), %rsp call L_poly_getnoise$1 L_crypto_kem_enc_derand_jazz$61: leaq 176(%rsp), %rsp movb $4, %cl leaq 6032(%rsp), %rdx leaq -176(%rsp), %rsp call L_poly_getnoise$1 L_crypto_kem_enc_derand_jazz$60: leaq 176(%rsp), %rsp movb $5, %cl leaq 6544(%rsp), %rdx leaq -176(%rsp), %rsp call L_poly_getnoise$1 L_crypto_kem_enc_derand_jazz$59: leaq 176(%rsp), %rsp movb $6, %cl leaq 400(%rsp), %rdx leaq -176(%rsp), %rsp call L_poly_getnoise$1 L_crypto_kem_enc_derand_jazz$58: leaq 176(%rsp), %rsp leaq 3984(%rsp), %rcx call L_poly_ntt$1 L_crypto_kem_enc_derand_jazz$57: leaq 4496(%rsp), %rcx call L_poly_ntt$1 L_crypto_kem_enc_derand_jazz$56: leaq 5008(%rsp), %rcx call L_poly_ntt$1 L_crypto_kem_enc_derand_jazz$55: leaq 7056(%rsp), %rdi leaq 8592(%rsp), %rcx leaq 3984(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_enc_derand_jazz$54: leaq 16(%rsp), %rsp leaq 1424(%rsp), %rdi leaq 9104(%rsp), %rcx leaq 4496(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_enc_derand_jazz$53: leaq 16(%rsp), %rsp leaq 7056(%rsp), %rcx leaq 1424(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_enc_derand_jazz$52: leaq 1424(%rsp), %rdi leaq 9616(%rsp), %rcx leaq 5008(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_enc_derand_jazz$51: leaq 16(%rsp), %rsp leaq 7056(%rsp), %rcx leaq 1424(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_enc_derand_jazz$50: leaq 7056(%rsp), %rax movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$48 L_crypto_kem_enc_derand_jazz$49: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$48: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$49 leaq 7568(%rsp), %rdi leaq 10128(%rsp), %rcx leaq 3984(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_enc_derand_jazz$47: leaq 16(%rsp), %rsp leaq 1424(%rsp), %rdi leaq 10640(%rsp), %rcx leaq 4496(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_enc_derand_jazz$46: leaq 16(%rsp), %rsp leaq 7568(%rsp), %rcx leaq 1424(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_enc_derand_jazz$45: leaq 1424(%rsp), %rdi leaq 11152(%rsp), %rcx leaq 5008(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_enc_derand_jazz$44: leaq 16(%rsp), %rsp leaq 7568(%rsp), %rcx leaq 1424(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_enc_derand_jazz$43: leaq 7568(%rsp), %rax movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$41 L_crypto_kem_enc_derand_jazz$42: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$41: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$42 leaq 8080(%rsp), %rdi leaq 11664(%rsp), %rcx leaq 3984(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_enc_derand_jazz$40: leaq 16(%rsp), %rsp leaq 1424(%rsp), %rdi leaq 12176(%rsp), %rcx leaq 4496(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_enc_derand_jazz$39: leaq 16(%rsp), %rsp leaq 8080(%rsp), %rcx leaq 1424(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_enc_derand_jazz$38: leaq 1424(%rsp), %rdi leaq 12688(%rsp), %rcx leaq 5008(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_enc_derand_jazz$37: leaq 16(%rsp), %rsp leaq 8080(%rsp), %rcx leaq 1424(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_enc_derand_jazz$36: leaq 8080(%rsp), %rax movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$34 L_crypto_kem_enc_derand_jazz$35: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$34: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$35 leaq 1424(%rsp), %rdi leaq 2448(%rsp), %rcx leaq 3984(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_enc_derand_jazz$33: leaq 16(%rsp), %rsp leaq 1936(%rsp), %rdi leaq 2960(%rsp), %rcx leaq 4496(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_enc_derand_jazz$32: leaq 16(%rsp), %rsp leaq 1424(%rsp), %rcx leaq 1936(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_enc_derand_jazz$31: leaq 1936(%rsp), %rdi leaq 3472(%rsp), %rcx leaq 5008(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_enc_derand_jazz$30: leaq 16(%rsp), %rsp leaq 1424(%rsp), %rcx leaq 1936(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_enc_derand_jazz$29: leaq 1424(%rsp), %rax movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$27 L_crypto_kem_enc_derand_jazz$28: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$27: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$28 leaq 7056(%rsp), %rcx call L_poly_invntt$1 L_crypto_kem_enc_derand_jazz$26: leaq 7568(%rsp), %rcx call L_poly_invntt$1 L_crypto_kem_enc_derand_jazz$25: leaq 8080(%rsp), %rcx call L_poly_invntt$1 L_crypto_kem_enc_derand_jazz$24: leaq 1424(%rsp), %rcx call L_poly_invntt$1 L_crypto_kem_enc_derand_jazz$23: leaq 7056(%rsp), %rcx leaq 5520(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_enc_derand_jazz$22: leaq 7568(%rsp), %rcx leaq 6032(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_enc_derand_jazz$21: leaq 8080(%rsp), %rcx leaq 6544(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_enc_derand_jazz$20: leaq 1424(%rsp), %rcx leaq 400(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_enc_derand_jazz$19: leaq 1424(%rsp), %rcx leaq 912(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_enc_derand_jazz$18: leaq 7056(%rsp), %rax movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$16 L_crypto_kem_enc_derand_jazz$17: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$16: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$17 leaq 7568(%rsp), %rax movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$14 L_crypto_kem_enc_derand_jazz$15: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$14: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$15 leaq 8080(%rsp), %rax movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$12 L_crypto_kem_enc_derand_jazz$13: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$12: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$13 leaq 1424(%rsp), %rax movq $0, %rcx jmp L_crypto_kem_enc_derand_jazz$10 L_crypto_kem_enc_derand_jazz$11: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx L_crypto_kem_enc_derand_jazz$10: cmpq $256, %rcx jb L_crypto_kem_enc_derand_jazz$11 movq 16(%rsp), %rax movq $0, %rdx movq $0, %rsi leaq 7056(%rsp), %rcx call L_poly_csubq$1 L_crypto_kem_enc_derand_jazz$9: leaq 7568(%rsp), %rcx call L_poly_csubq$1 L_crypto_kem_enc_derand_jazz$8: leaq 8080(%rsp), %rcx call L_poly_csubq$1 L_crypto_kem_enc_derand_jazz$7: jmp L_crypto_kem_enc_derand_jazz$5 L_crypto_kem_enc_derand_jazz$6: movzwq 7056(%rsp,%rdx,2), %rcx incq %rdx shlq $10, %rcx addq $1665, %rcx imulq $1290167, %rcx, %rcx shrq $32, %rcx andq $1023, %rcx movzwq 7056(%rsp,%rdx,2), %rdi incq %rdx shlq $10, %rdi addq $1665, %rdi imulq $1290167, %rdi, %rdi shrq $32, %rdi andq $1023, %rdi movzwq 7056(%rsp,%rdx,2), %r8 incq %rdx shlq $10, %r8 addq $1665, %r8 imulq $1290167, %r8, %r8 shrq $32, %r8 andq $1023, %r8 movzwq 7056(%rsp,%rdx,2), %r9 incq %rdx shlq $10, %r9 addq $1665, %r9 imulq $1290167, %r9, %r9 shrq $32, %r9 andq $1023, %r9 movw %cx, %r10w andw $255, %r10w movb %r10b, (%rax,%rsi) incq %rsi shrw $8, %cx movw %di, %r10w shlw $2, %r10w orw %cx, %r10w movb %r10b, (%rax,%rsi) incq %rsi shrw $6, %di movw %r8w, %cx shlw $4, %cx orw %di, %cx movb %cl, (%rax,%rsi) incq %rsi shrw $4, %r8w movw %r9w, %cx shlw $6, %cx orw %r8w, %cx movb %cl, (%rax,%rsi) incq %rsi shrq $2, %r9 movb %r9b, (%rax,%rsi) incq %rsi L_crypto_kem_enc_derand_jazz$5: cmpq $768, %rdx jb L_crypto_kem_enc_derand_jazz$6 addq $960, %rax leaq 1424(%rsp), %rcx call L_poly_compress$1 L_crypto_kem_enc_derand_jazz$4: movq 16(%rsp), %rsi movq $1088, %rax leaq 104(%rsp), %rcx leaq -232(%rsp), %rsp call L_sha3_256$1 L_crypto_kem_enc_derand_jazz$3: leaq 232(%rsp), %rsp movq 24(%rsp), %rax movq $32, %rcx leaq 72(%rsp), %rdx leaq -216(%rsp), %rsp call L_shake256_64$1 L_crypto_kem_enc_derand_jazz$2: leaq 216(%rsp), %rsp ret L_crypto_kem_keypair_derand_jazz$1: movq %rax, 8(%rsp) movq %rdi, 16(%rsp) movq %rsi, 24(%rsp) movq %rdi, 32(%rsp) movq %rsi, 40(%rsp) movq (%rax), %rcx movq %rcx, 64(%rsp) movq 8(%rax), %rcx movq %rcx, 72(%rsp) movq 16(%rax), %rcx movq %rcx, 80(%rsp) movq 24(%rax), %rax movq %rax, 88(%rsp) leaq 128(%rsp), %rcx leaq 64(%rsp), %rax leaq -208(%rsp), %rsp call L_sha3_512_32$1 L_crypto_kem_keypair_derand_jazz$189: leaq 208(%rsp), %rsp movq 128(%rsp), %rax movq %rax, 96(%rsp) movq 160(%rsp), %rax movq %rax, 64(%rsp) movq 136(%rsp), %rax movq %rax, 104(%rsp) movq 168(%rsp), %rax movq %rax, 72(%rsp) movq 144(%rsp), %rax movq %rax, 112(%rsp) movq 176(%rsp), %rax movq %rax, 80(%rsp) movq 152(%rsp), %rax movq %rax, 120(%rsp) movq 184(%rsp), %rax movq %rax, 88(%rsp) movq $0, %rax movq %rax, 48(%rsp) movb 96(%rsp), %al movb %al, 10120(%rsp) movb 97(%rsp), %al movb %al, 10121(%rsp) movb 98(%rsp), %al movb %al, 10122(%rsp) movb 99(%rsp), %al movb %al, 10123(%rsp) movb 100(%rsp), %al movb %al, 10124(%rsp) movb 101(%rsp), %al movb %al, 10125(%rsp) movb 102(%rsp), %al movb %al, 10126(%rsp) movb 103(%rsp), %al movb %al, 10127(%rsp) movb 104(%rsp), %al movb %al, 10128(%rsp) movb 105(%rsp), %al movb %al, 10129(%rsp) movb 106(%rsp), %al movb %al, 10130(%rsp) movb 107(%rsp), %al movb %al, 10131(%rsp) movb 108(%rsp), %al movb %al, 10132(%rsp) movb 109(%rsp), %al movb %al, 10133(%rsp) movb 110(%rsp), %al movb %al, 10134(%rsp) movb 111(%rsp), %al movb %al, 10135(%rsp) movb 112(%rsp), %al movb %al, 10136(%rsp) movb 113(%rsp), %al movb %al, 10137(%rsp) movb 114(%rsp), %al movb %al, 10138(%rsp) movb 115(%rsp), %al movb %al, 10139(%rsp) movb 116(%rsp), %al movb %al, 10140(%rsp) movb 117(%rsp), %al movb %al, 10141(%rsp) movb 118(%rsp), %al movb %al, 10142(%rsp) movb 119(%rsp), %al movb %al, 10143(%rsp) movb 120(%rsp), %al movb %al, 10144(%rsp) movb 121(%rsp), %al movb %al, 10145(%rsp) movb 122(%rsp), %al movb %al, 10146(%rsp) movb 123(%rsp), %al movb %al, 10147(%rsp) movb 124(%rsp), %al movb %al, 10148(%rsp) movb 125(%rsp), %al movb %al, 10149(%rsp) movb 126(%rsp), %al movb %al, 10150(%rsp) movb 127(%rsp), %al movb %al, 10151(%rsp) movq 48(%rsp), %rax cmpq $0, %rax je L_crypto_kem_keypair_derand_jazz$187 movb $0, 10152(%rsp) movb $0, 10153(%rsp) jmp L_crypto_kem_keypair_derand_jazz$188 L_crypto_kem_keypair_derand_jazz$187: movb $0, 10152(%rsp) movb $0, 10153(%rsp) L_crypto_kem_keypair_derand_jazz$188: leaq 192(%rsp), %rcx leaq 10120(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_keypair_derand_jazz$186: movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$184 L_crypto_kem_keypair_derand_jazz$185: movq %rax, 392(%rsp,%rax,8) incq %rax L_crypto_kem_keypair_derand_jazz$184: cmpq $64, %rax jb L_crypto_kem_keypair_derand_jazz$185 movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$176 L_crypto_kem_keypair_derand_jazz$177: movq %rax, 56(%rsp) leaq 192(%rsp), %rcx leaq 10154(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_keypair_derand_jazz$183: leaq 8(%rsp), %rsp movq 56(%rsp), %rax movq $0, %rcx L_crypto_kem_keypair_derand_jazz$178: movzbw 10154(%rsp,%rcx), %dx incq %rcx movzbw 10154(%rsp,%rcx), %si movw %si, %di shrw $4, %di andw $15, %si shlw $8, %si orw %si, %dx incq %rcx movzbw 10154(%rsp,%rcx), %si shlw $4, %si orw %si, %di incq %rcx cmpw $3329, %dx jnb L_crypto_kem_keypair_derand_jazz$181 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$181 movw %dx, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$182: L_crypto_kem_keypair_derand_jazz$181: cmpw $3329, %di jnb L_crypto_kem_keypair_derand_jazz$179 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$179 movw %di, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$180: L_crypto_kem_keypair_derand_jazz$179: cmpq $166, %rcx jb L_crypto_kem_keypair_derand_jazz$178 L_crypto_kem_keypair_derand_jazz$176: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$177 movq $0, %rax movq $0, %rcx jmp L_crypto_kem_keypair_derand_jazz$174 L_crypto_kem_keypair_derand_jazz$175: movw 392(%rsp,%rax,2), %dx movw %dx, 5512(%rsp,%rcx,2) incq %rax incq %rcx L_crypto_kem_keypair_derand_jazz$174: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$175 movq 48(%rsp), %rax cmpq $0, %rax je L_crypto_kem_keypair_derand_jazz$172 movb $0, 10152(%rsp) movb $1, 10153(%rsp) jmp L_crypto_kem_keypair_derand_jazz$173 L_crypto_kem_keypair_derand_jazz$172: movb $1, 10152(%rsp) movb $0, 10153(%rsp) L_crypto_kem_keypair_derand_jazz$173: leaq 192(%rsp), %rcx leaq 10120(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_keypair_derand_jazz$171: movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$169 L_crypto_kem_keypair_derand_jazz$170: movq %rax, 392(%rsp,%rax,8) incq %rax L_crypto_kem_keypair_derand_jazz$169: cmpq $64, %rax jb L_crypto_kem_keypair_derand_jazz$170 movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$161 L_crypto_kem_keypair_derand_jazz$162: movq %rax, 56(%rsp) leaq 192(%rsp), %rcx leaq 10154(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_keypair_derand_jazz$168: leaq 8(%rsp), %rsp movq 56(%rsp), %rax movq $0, %rcx L_crypto_kem_keypair_derand_jazz$163: movzbw 10154(%rsp,%rcx), %dx incq %rcx movzbw 10154(%rsp,%rcx), %si movw %si, %di shrw $4, %di andw $15, %si shlw $8, %si orw %si, %dx incq %rcx movzbw 10154(%rsp,%rcx), %si shlw $4, %si orw %si, %di incq %rcx cmpw $3329, %dx jnb L_crypto_kem_keypair_derand_jazz$166 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$166 movw %dx, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$167: L_crypto_kem_keypair_derand_jazz$166: cmpw $3329, %di jnb L_crypto_kem_keypair_derand_jazz$164 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$164 movw %di, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$165: L_crypto_kem_keypair_derand_jazz$164: cmpq $166, %rcx jb L_crypto_kem_keypair_derand_jazz$163 L_crypto_kem_keypair_derand_jazz$161: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$162 movq $0, %rax movq $256, %rcx jmp L_crypto_kem_keypair_derand_jazz$159 L_crypto_kem_keypair_derand_jazz$160: movw 392(%rsp,%rax,2), %dx movw %dx, 5512(%rsp,%rcx,2) incq %rax incq %rcx L_crypto_kem_keypair_derand_jazz$159: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$160 movq 48(%rsp), %rax cmpq $0, %rax je L_crypto_kem_keypair_derand_jazz$157 movb $0, 10152(%rsp) movb $2, 10153(%rsp) jmp L_crypto_kem_keypair_derand_jazz$158 L_crypto_kem_keypair_derand_jazz$157: movb $2, 10152(%rsp) movb $0, 10153(%rsp) L_crypto_kem_keypair_derand_jazz$158: leaq 192(%rsp), %rcx leaq 10120(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_keypair_derand_jazz$156: movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$154 L_crypto_kem_keypair_derand_jazz$155: movq %rax, 392(%rsp,%rax,8) incq %rax L_crypto_kem_keypair_derand_jazz$154: cmpq $64, %rax jb L_crypto_kem_keypair_derand_jazz$155 movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$146 L_crypto_kem_keypair_derand_jazz$147: movq %rax, 56(%rsp) leaq 192(%rsp), %rcx leaq 10154(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_keypair_derand_jazz$153: leaq 8(%rsp), %rsp movq 56(%rsp), %rax movq $0, %rcx L_crypto_kem_keypair_derand_jazz$148: movzbw 10154(%rsp,%rcx), %dx incq %rcx movzbw 10154(%rsp,%rcx), %si movw %si, %di shrw $4, %di andw $15, %si shlw $8, %si orw %si, %dx incq %rcx movzbw 10154(%rsp,%rcx), %si shlw $4, %si orw %si, %di incq %rcx cmpw $3329, %dx jnb L_crypto_kem_keypair_derand_jazz$151 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$151 movw %dx, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$152: L_crypto_kem_keypair_derand_jazz$151: cmpw $3329, %di jnb L_crypto_kem_keypair_derand_jazz$149 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$149 movw %di, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$150: L_crypto_kem_keypair_derand_jazz$149: cmpq $166, %rcx jb L_crypto_kem_keypair_derand_jazz$148 L_crypto_kem_keypair_derand_jazz$146: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$147 movq $0, %rax movq $512, %rcx jmp L_crypto_kem_keypair_derand_jazz$144 L_crypto_kem_keypair_derand_jazz$145: movw 392(%rsp,%rax,2), %dx movw %dx, 5512(%rsp,%rcx,2) incq %rax incq %rcx L_crypto_kem_keypair_derand_jazz$144: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$145 movq 48(%rsp), %rax cmpq $0, %rax je L_crypto_kem_keypair_derand_jazz$142 movb $1, 10152(%rsp) movb $0, 10153(%rsp) jmp L_crypto_kem_keypair_derand_jazz$143 L_crypto_kem_keypair_derand_jazz$142: movb $0, 10152(%rsp) movb $1, 10153(%rsp) L_crypto_kem_keypair_derand_jazz$143: leaq 192(%rsp), %rcx leaq 10120(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_keypair_derand_jazz$141: movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$139 L_crypto_kem_keypair_derand_jazz$140: movq %rax, 392(%rsp,%rax,8) incq %rax L_crypto_kem_keypair_derand_jazz$139: cmpq $64, %rax jb L_crypto_kem_keypair_derand_jazz$140 movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$131 L_crypto_kem_keypair_derand_jazz$132: movq %rax, 56(%rsp) leaq 192(%rsp), %rcx leaq 10154(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_keypair_derand_jazz$138: leaq 8(%rsp), %rsp movq 56(%rsp), %rax movq $0, %rcx L_crypto_kem_keypair_derand_jazz$133: movzbw 10154(%rsp,%rcx), %dx incq %rcx movzbw 10154(%rsp,%rcx), %si movw %si, %di shrw $4, %di andw $15, %si shlw $8, %si orw %si, %dx incq %rcx movzbw 10154(%rsp,%rcx), %si shlw $4, %si orw %si, %di incq %rcx cmpw $3329, %dx jnb L_crypto_kem_keypair_derand_jazz$136 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$136 movw %dx, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$137: L_crypto_kem_keypair_derand_jazz$136: cmpw $3329, %di jnb L_crypto_kem_keypair_derand_jazz$134 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$134 movw %di, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$135: L_crypto_kem_keypair_derand_jazz$134: cmpq $166, %rcx jb L_crypto_kem_keypair_derand_jazz$133 L_crypto_kem_keypair_derand_jazz$131: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$132 movq $0, %rax movq $768, %rcx jmp L_crypto_kem_keypair_derand_jazz$129 L_crypto_kem_keypair_derand_jazz$130: movw 392(%rsp,%rax,2), %dx movw %dx, 5512(%rsp,%rcx,2) incq %rax incq %rcx L_crypto_kem_keypair_derand_jazz$129: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$130 movq 48(%rsp), %rax cmpq $0, %rax je L_crypto_kem_keypair_derand_jazz$127 movb $1, 10152(%rsp) movb $1, 10153(%rsp) jmp L_crypto_kem_keypair_derand_jazz$128 L_crypto_kem_keypair_derand_jazz$127: movb $1, 10152(%rsp) movb $1, 10153(%rsp) L_crypto_kem_keypair_derand_jazz$128: leaq 192(%rsp), %rcx leaq 10120(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_keypair_derand_jazz$126: movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$124 L_crypto_kem_keypair_derand_jazz$125: movq %rax, 392(%rsp,%rax,8) incq %rax L_crypto_kem_keypair_derand_jazz$124: cmpq $64, %rax jb L_crypto_kem_keypair_derand_jazz$125 movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$116 L_crypto_kem_keypair_derand_jazz$117: movq %rax, 56(%rsp) leaq 192(%rsp), %rcx leaq 10154(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_keypair_derand_jazz$123: leaq 8(%rsp), %rsp movq 56(%rsp), %rax movq $0, %rcx L_crypto_kem_keypair_derand_jazz$118: movzbw 10154(%rsp,%rcx), %dx incq %rcx movzbw 10154(%rsp,%rcx), %si movw %si, %di shrw $4, %di andw $15, %si shlw $8, %si orw %si, %dx incq %rcx movzbw 10154(%rsp,%rcx), %si shlw $4, %si orw %si, %di incq %rcx cmpw $3329, %dx jnb L_crypto_kem_keypair_derand_jazz$121 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$121 movw %dx, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$122: L_crypto_kem_keypair_derand_jazz$121: cmpw $3329, %di jnb L_crypto_kem_keypair_derand_jazz$119 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$119 movw %di, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$120: L_crypto_kem_keypair_derand_jazz$119: cmpq $166, %rcx jb L_crypto_kem_keypair_derand_jazz$118 L_crypto_kem_keypair_derand_jazz$116: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$117 movq $0, %rax movq $1024, %rcx jmp L_crypto_kem_keypair_derand_jazz$114 L_crypto_kem_keypair_derand_jazz$115: movw 392(%rsp,%rax,2), %dx movw %dx, 5512(%rsp,%rcx,2) incq %rax incq %rcx L_crypto_kem_keypair_derand_jazz$114: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$115 movq 48(%rsp), %rax cmpq $0, %rax je L_crypto_kem_keypair_derand_jazz$112 movb $1, 10152(%rsp) movb $2, 10153(%rsp) jmp L_crypto_kem_keypair_derand_jazz$113 L_crypto_kem_keypair_derand_jazz$112: movb $2, 10152(%rsp) movb $1, 10153(%rsp) L_crypto_kem_keypair_derand_jazz$113: leaq 192(%rsp), %rcx leaq 10120(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_keypair_derand_jazz$111: movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$109 L_crypto_kem_keypair_derand_jazz$110: movq %rax, 392(%rsp,%rax,8) incq %rax L_crypto_kem_keypair_derand_jazz$109: cmpq $64, %rax jb L_crypto_kem_keypair_derand_jazz$110 movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$101 L_crypto_kem_keypair_derand_jazz$102: movq %rax, 56(%rsp) leaq 192(%rsp), %rcx leaq 10154(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_keypair_derand_jazz$108: leaq 8(%rsp), %rsp movq 56(%rsp), %rax movq $0, %rcx L_crypto_kem_keypair_derand_jazz$103: movzbw 10154(%rsp,%rcx), %dx incq %rcx movzbw 10154(%rsp,%rcx), %si movw %si, %di shrw $4, %di andw $15, %si shlw $8, %si orw %si, %dx incq %rcx movzbw 10154(%rsp,%rcx), %si shlw $4, %si orw %si, %di incq %rcx cmpw $3329, %dx jnb L_crypto_kem_keypair_derand_jazz$106 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$106 movw %dx, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$107: L_crypto_kem_keypair_derand_jazz$106: cmpw $3329, %di jnb L_crypto_kem_keypair_derand_jazz$104 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$104 movw %di, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$105: L_crypto_kem_keypair_derand_jazz$104: cmpq $166, %rcx jb L_crypto_kem_keypair_derand_jazz$103 L_crypto_kem_keypair_derand_jazz$101: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$102 movq $0, %rax movq $1280, %rcx jmp L_crypto_kem_keypair_derand_jazz$99 L_crypto_kem_keypair_derand_jazz$100: movw 392(%rsp,%rax,2), %dx movw %dx, 5512(%rsp,%rcx,2) incq %rax incq %rcx L_crypto_kem_keypair_derand_jazz$99: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$100 movq 48(%rsp), %rax cmpq $0, %rax je L_crypto_kem_keypair_derand_jazz$97 movb $2, 10152(%rsp) movb $0, 10153(%rsp) jmp L_crypto_kem_keypair_derand_jazz$98 L_crypto_kem_keypair_derand_jazz$97: movb $0, 10152(%rsp) movb $2, 10153(%rsp) L_crypto_kem_keypair_derand_jazz$98: leaq 192(%rsp), %rcx leaq 10120(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_keypair_derand_jazz$96: movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$94 L_crypto_kem_keypair_derand_jazz$95: movq %rax, 392(%rsp,%rax,8) incq %rax L_crypto_kem_keypair_derand_jazz$94: cmpq $64, %rax jb L_crypto_kem_keypair_derand_jazz$95 movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$86 L_crypto_kem_keypair_derand_jazz$87: movq %rax, 56(%rsp) leaq 192(%rsp), %rcx leaq 10154(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_keypair_derand_jazz$93: leaq 8(%rsp), %rsp movq 56(%rsp), %rax movq $0, %rcx L_crypto_kem_keypair_derand_jazz$88: movzbw 10154(%rsp,%rcx), %dx incq %rcx movzbw 10154(%rsp,%rcx), %si movw %si, %di shrw $4, %di andw $15, %si shlw $8, %si orw %si, %dx incq %rcx movzbw 10154(%rsp,%rcx), %si shlw $4, %si orw %si, %di incq %rcx cmpw $3329, %dx jnb L_crypto_kem_keypair_derand_jazz$91 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$91 movw %dx, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$92: L_crypto_kem_keypair_derand_jazz$91: cmpw $3329, %di jnb L_crypto_kem_keypair_derand_jazz$89 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$89 movw %di, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$90: L_crypto_kem_keypair_derand_jazz$89: cmpq $166, %rcx jb L_crypto_kem_keypair_derand_jazz$88 L_crypto_kem_keypair_derand_jazz$86: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$87 movq $0, %rax movq $1536, %rcx jmp L_crypto_kem_keypair_derand_jazz$84 L_crypto_kem_keypair_derand_jazz$85: movw 392(%rsp,%rax,2), %dx movw %dx, 5512(%rsp,%rcx,2) incq %rax incq %rcx L_crypto_kem_keypair_derand_jazz$84: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$85 movq 48(%rsp), %rax cmpq $0, %rax je L_crypto_kem_keypair_derand_jazz$82 movb $2, 10152(%rsp) movb $1, 10153(%rsp) jmp L_crypto_kem_keypair_derand_jazz$83 L_crypto_kem_keypair_derand_jazz$82: movb $1, 10152(%rsp) movb $2, 10153(%rsp) L_crypto_kem_keypair_derand_jazz$83: leaq 192(%rsp), %rcx leaq 10120(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_keypair_derand_jazz$81: movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$79 L_crypto_kem_keypair_derand_jazz$80: movq %rax, 392(%rsp,%rax,8) incq %rax L_crypto_kem_keypair_derand_jazz$79: cmpq $64, %rax jb L_crypto_kem_keypair_derand_jazz$80 movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$71 L_crypto_kem_keypair_derand_jazz$72: movq %rax, 56(%rsp) leaq 192(%rsp), %rcx leaq 10154(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_keypair_derand_jazz$78: leaq 8(%rsp), %rsp movq 56(%rsp), %rax movq $0, %rcx L_crypto_kem_keypair_derand_jazz$73: movzbw 10154(%rsp,%rcx), %dx incq %rcx movzbw 10154(%rsp,%rcx), %si movw %si, %di shrw $4, %di andw $15, %si shlw $8, %si orw %si, %dx incq %rcx movzbw 10154(%rsp,%rcx), %si shlw $4, %si orw %si, %di incq %rcx cmpw $3329, %dx jnb L_crypto_kem_keypair_derand_jazz$76 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$76 movw %dx, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$77: L_crypto_kem_keypair_derand_jazz$76: cmpw $3329, %di jnb L_crypto_kem_keypair_derand_jazz$74 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$74 movw %di, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$75: L_crypto_kem_keypair_derand_jazz$74: cmpq $166, %rcx jb L_crypto_kem_keypair_derand_jazz$73 L_crypto_kem_keypair_derand_jazz$71: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$72 movq $0, %rax movq $1792, %rcx jmp L_crypto_kem_keypair_derand_jazz$69 L_crypto_kem_keypair_derand_jazz$70: movw 392(%rsp,%rax,2), %dx movw %dx, 5512(%rsp,%rcx,2) incq %rax incq %rcx L_crypto_kem_keypair_derand_jazz$69: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$70 movq 48(%rsp), %rax cmpq $0, %rax je L_crypto_kem_keypair_derand_jazz$67 movb $2, 10152(%rsp) movb $2, 10153(%rsp) jmp L_crypto_kem_keypair_derand_jazz$68 L_crypto_kem_keypair_derand_jazz$67: movb $2, 10152(%rsp) movb $2, 10153(%rsp) L_crypto_kem_keypair_derand_jazz$68: leaq 192(%rsp), %rcx leaq 10120(%rsp), %rdx call L_shake128_absorb34$1 L_crypto_kem_keypair_derand_jazz$66: movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$64 L_crypto_kem_keypair_derand_jazz$65: movq %rax, 392(%rsp,%rax,8) incq %rax L_crypto_kem_keypair_derand_jazz$64: cmpq $64, %rax jb L_crypto_kem_keypair_derand_jazz$65 movq $0, %rax jmp L_crypto_kem_keypair_derand_jazz$56 L_crypto_kem_keypair_derand_jazz$57: movq %rax, 48(%rsp) leaq 192(%rsp), %rcx leaq 10154(%rsp), %rdx leaq -8(%rsp), %rsp call L_shake128_squeezeblock$1 L_crypto_kem_keypair_derand_jazz$63: leaq 8(%rsp), %rsp movq 48(%rsp), %rax movq $0, %rcx L_crypto_kem_keypair_derand_jazz$58: movzbw 10154(%rsp,%rcx), %dx incq %rcx movzbw 10154(%rsp,%rcx), %si movw %si, %di shrw $4, %di andw $15, %si shlw $8, %si orw %si, %dx incq %rcx movzbw 10154(%rsp,%rcx), %si shlw $4, %si orw %si, %di incq %rcx cmpw $3329, %dx jnb L_crypto_kem_keypair_derand_jazz$61 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$61 movw %dx, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$62: L_crypto_kem_keypair_derand_jazz$61: cmpw $3329, %di jnb L_crypto_kem_keypair_derand_jazz$59 cmpq $256, %rax jnb L_crypto_kem_keypair_derand_jazz$59 movw %di, 392(%rsp,%rax,2) incq %rax L_crypto_kem_keypair_derand_jazz$60: L_crypto_kem_keypair_derand_jazz$59: cmpq $166, %rcx jb L_crypto_kem_keypair_derand_jazz$58 L_crypto_kem_keypair_derand_jazz$56: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$57 movq $0, %rax movq $2048, %rcx jmp L_crypto_kem_keypair_derand_jazz$54 L_crypto_kem_keypair_derand_jazz$55: movw 392(%rsp,%rax,2), %dx movw %dx, 5512(%rsp,%rcx,2) incq %rax incq %rcx L_crypto_kem_keypair_derand_jazz$54: cmpq $256, %rax jb L_crypto_kem_keypair_derand_jazz$55 movb $0, %cl leaq 904(%rsp), %rdx leaq 64(%rsp), %rax leaq -176(%rsp), %rsp call L_poly_getnoise$1 L_crypto_kem_keypair_derand_jazz$53: leaq 176(%rsp), %rsp movb $1, %cl leaq 1416(%rsp), %rdx leaq 64(%rsp), %rax leaq -176(%rsp), %rsp call L_poly_getnoise$1 L_crypto_kem_keypair_derand_jazz$52: leaq 176(%rsp), %rsp movb $2, %cl leaq 1928(%rsp), %rdx leaq 64(%rsp), %rax leaq -176(%rsp), %rsp call L_poly_getnoise$1 L_crypto_kem_keypair_derand_jazz$51: leaq 176(%rsp), %rsp movb $3, %cl leaq 2440(%rsp), %rdx leaq 64(%rsp), %rax leaq -176(%rsp), %rsp call L_poly_getnoise$1 L_crypto_kem_keypair_derand_jazz$50: leaq 176(%rsp), %rsp movb $4, %cl leaq 2952(%rsp), %rdx leaq 64(%rsp), %rax leaq -176(%rsp), %rsp call L_poly_getnoise$1 L_crypto_kem_keypair_derand_jazz$49: leaq 176(%rsp), %rsp movb $5, %cl leaq 3464(%rsp), %rdx leaq 64(%rsp), %rax leaq -176(%rsp), %rsp call L_poly_getnoise$1 L_crypto_kem_keypair_derand_jazz$48: leaq 176(%rsp), %rsp leaq 904(%rsp), %rcx call L_poly_ntt$1 L_crypto_kem_keypair_derand_jazz$47: leaq 1416(%rsp), %rcx call L_poly_ntt$1 L_crypto_kem_keypair_derand_jazz$46: leaq 1928(%rsp), %rcx call L_poly_ntt$1 L_crypto_kem_keypair_derand_jazz$45: leaq 2440(%rsp), %rcx call L_poly_ntt$1 L_crypto_kem_keypair_derand_jazz$44: leaq 2952(%rsp), %rcx call L_poly_ntt$1 L_crypto_kem_keypair_derand_jazz$43: leaq 3464(%rsp), %rcx call L_poly_ntt$1 L_crypto_kem_keypair_derand_jazz$42: leaq 3976(%rsp), %rdi leaq 5512(%rsp), %rcx leaq 904(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_keypair_derand_jazz$41: leaq 16(%rsp), %rsp leaq 392(%rsp), %rdi leaq 6024(%rsp), %rcx leaq 1416(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_keypair_derand_jazz$40: leaq 16(%rsp), %rsp leaq 3976(%rsp), %rcx leaq 392(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_keypair_derand_jazz$39: leaq 392(%rsp), %rdi leaq 6536(%rsp), %rcx leaq 1928(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_keypair_derand_jazz$38: leaq 16(%rsp), %rsp leaq 3976(%rsp), %rcx leaq 392(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_keypair_derand_jazz$37: leaq 3976(%rsp), %rax movq $0, %rcx jmp L_crypto_kem_keypair_derand_jazz$35 L_crypto_kem_keypair_derand_jazz$36: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx L_crypto_kem_keypair_derand_jazz$35: cmpq $256, %rcx jb L_crypto_kem_keypair_derand_jazz$36 leaq 3976(%rsp), %rax call L_poly_frommont$1 L_crypto_kem_keypair_derand_jazz$34: leaq 4488(%rsp), %rdi leaq 7048(%rsp), %rcx leaq 904(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_keypair_derand_jazz$33: leaq 16(%rsp), %rsp leaq 392(%rsp), %rdi leaq 7560(%rsp), %rcx leaq 1416(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_keypair_derand_jazz$32: leaq 16(%rsp), %rsp leaq 4488(%rsp), %rcx leaq 392(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_keypair_derand_jazz$31: leaq 392(%rsp), %rdi leaq 8072(%rsp), %rcx leaq 1928(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_keypair_derand_jazz$30: leaq 16(%rsp), %rsp leaq 4488(%rsp), %rcx leaq 392(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_keypair_derand_jazz$29: leaq 4488(%rsp), %rax movq $0, %rcx jmp L_crypto_kem_keypair_derand_jazz$27 L_crypto_kem_keypair_derand_jazz$28: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx L_crypto_kem_keypair_derand_jazz$27: cmpq $256, %rcx jb L_crypto_kem_keypair_derand_jazz$28 leaq 4488(%rsp), %rax call L_poly_frommont$1 L_crypto_kem_keypair_derand_jazz$26: leaq 5000(%rsp), %rdi leaq 8584(%rsp), %rcx leaq 904(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_keypair_derand_jazz$25: leaq 16(%rsp), %rsp leaq 392(%rsp), %rdi leaq 9096(%rsp), %rcx leaq 1416(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_keypair_derand_jazz$24: leaq 16(%rsp), %rsp leaq 5000(%rsp), %rcx leaq 392(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_keypair_derand_jazz$23: leaq 392(%rsp), %rdi leaq 9608(%rsp), %rcx leaq 1928(%rsp), %rsi leaq -16(%rsp), %rsp call L_poly_basemul$1 L_crypto_kem_keypair_derand_jazz$22: leaq 16(%rsp), %rsp leaq 5000(%rsp), %rcx leaq 392(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_keypair_derand_jazz$21: leaq 5000(%rsp), %rax movq $0, %rcx jmp L_crypto_kem_keypair_derand_jazz$19 L_crypto_kem_keypair_derand_jazz$20: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx L_crypto_kem_keypair_derand_jazz$19: cmpq $256, %rcx jb L_crypto_kem_keypair_derand_jazz$20 leaq 5000(%rsp), %rax call L_poly_frommont$1 L_crypto_kem_keypair_derand_jazz$18: leaq 3976(%rsp), %rcx leaq 2440(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_keypair_derand_jazz$17: leaq 4488(%rsp), %rcx leaq 2952(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_keypair_derand_jazz$16: leaq 5000(%rsp), %rcx leaq 3464(%rsp), %rsi call L_poly_add2$1 L_crypto_kem_keypair_derand_jazz$15: leaq 3976(%rsp), %rax movq $0, %rcx jmp L_crypto_kem_keypair_derand_jazz$13 L_crypto_kem_keypair_derand_jazz$14: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx L_crypto_kem_keypair_derand_jazz$13: cmpq $256, %rcx jb L_crypto_kem_keypair_derand_jazz$14 leaq 4488(%rsp), %rax movq $0, %rcx jmp L_crypto_kem_keypair_derand_jazz$11 L_crypto_kem_keypair_derand_jazz$12: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx L_crypto_kem_keypair_derand_jazz$11: cmpq $256, %rcx jb L_crypto_kem_keypair_derand_jazz$12 leaq 5000(%rsp), %rax movq $0, %rcx jmp L_crypto_kem_keypair_derand_jazz$9 L_crypto_kem_keypair_derand_jazz$10: movw (%rax,%rcx,2), %dx movswl %dx, %esi imull $20159, %esi, %esi sarl $26, %esi imull $3329, %esi, %esi subw %si, %dx movw %dx, (%rax,%rcx,2) incq %rcx L_crypto_kem_keypair_derand_jazz$9: cmpq $256, %rcx jb L_crypto_kem_keypair_derand_jazz$10 movq 32(%rsp), %rax movq 40(%rsp), %rcx movq %rcx, %rdx leaq 904(%rsp), %rcx call L_poly_tobytes$1 L_crypto_kem_keypair_derand_jazz$8: addq $384, %rdx leaq 1416(%rsp), %rcx call L_poly_tobytes$1 L_crypto_kem_keypair_derand_jazz$7: addq $384, %rdx leaq 1928(%rsp), %rcx call L_poly_tobytes$1 L_crypto_kem_keypair_derand_jazz$6: movq %rax, %rdx leaq 3976(%rsp), %rcx call L_poly_tobytes$1 L_crypto_kem_keypair_derand_jazz$5: addq $384, %rdx leaq 4488(%rsp), %rcx call L_poly_tobytes$1 L_crypto_kem_keypair_derand_jazz$4: addq $384, %rdx leaq 5000(%rsp), %rcx call L_poly_tobytes$1 L_crypto_kem_keypair_derand_jazz$3: addq $1152, %rax movq 96(%rsp), %rcx movq %rcx, (%rax) addq $8, %rax movq 104(%rsp), %rcx movq %rcx, (%rax) addq $8, %rax movq 112(%rsp), %rcx movq %rcx, (%rax) addq $8, %rax movq 120(%rsp), %rcx movq %rcx, (%rax) movq 24(%rsp), %rax addq $1152, %rax movq 16(%rsp), %rcx movq (%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 8(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 16(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 24(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 32(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 40(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 48(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 56(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 64(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 72(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 80(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 88(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 96(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 104(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 112(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 120(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 128(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 136(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 144(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 152(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 160(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 168(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 176(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 184(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 192(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 200(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 208(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 216(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 224(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 232(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 240(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 248(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 256(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 264(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 272(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 280(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 288(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 296(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 304(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 312(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 320(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 328(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 336(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 344(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 352(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 360(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 368(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 376(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 384(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 392(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 400(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 408(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 416(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 424(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 432(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 440(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 448(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 456(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 464(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 472(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 480(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 488(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 496(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 504(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 512(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 520(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 528(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 536(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 544(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 552(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 560(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 568(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 576(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 584(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 592(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 600(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 608(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 616(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 624(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 632(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 640(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 648(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 656(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 664(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 672(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 680(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 688(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 696(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 704(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 712(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 720(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 728(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 736(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 744(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 752(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 760(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 768(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 776(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 784(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 792(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 800(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 808(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 816(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 824(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 832(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 840(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 848(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 856(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 864(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 872(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 880(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 888(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 896(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 904(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 912(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 920(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 928(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 936(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 944(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 952(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 960(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 968(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 976(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 984(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 992(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1000(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1008(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1016(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1024(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1032(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1040(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1048(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1056(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1064(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1072(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1080(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1088(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1096(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1104(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1112(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1120(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1128(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1136(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1144(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1152(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1160(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1168(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 1176(%rcx), %rcx movq %rcx, (%rax) addq $8, %rax movq %rax, 24(%rsp) movq 16(%rsp), %rsi movq $1184, %rax leaq 96(%rsp), %rcx leaq -232(%rsp), %rsp call L_sha3_256$1 L_crypto_kem_keypair_derand_jazz$2: leaq 232(%rsp), %rsp movq 24(%rsp), %rax movq 96(%rsp), %rcx movq %rcx, (%rax) addq $8, %rax movq 104(%rsp), %rcx movq %rcx, (%rax) addq $8, %rax movq 112(%rsp), %rcx movq %rcx, (%rax) addq $8, %rax movq 120(%rsp), %rcx movq %rcx, (%rax) addq $8, %rax movq 8(%rsp), %rcx leaq 32(%rcx), %rcx movq (%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 8(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 16(%rcx), %rdx movq %rdx, (%rax) addq $8, %rax movq 24(%rcx), %rcx movq %rcx, (%rax) ret L_i_poly_tomsg$1: call L_poly_csubq$1 L_i_poly_tomsg$2: movb $0, %sil movw (%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 2(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 4(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 6(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 8(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 10(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 12(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 14(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, (%rax) movb $0, %sil movw 16(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 18(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 20(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 22(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 24(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 26(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 28(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 30(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 1(%rax) movb $0, %sil movw 32(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 34(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 36(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 38(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 40(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 42(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 44(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 46(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 2(%rax) movb $0, %sil movw 48(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 50(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 52(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 54(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 56(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 58(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 60(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 62(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 3(%rax) movb $0, %sil movw 64(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 66(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 68(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 70(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 72(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 74(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 76(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 78(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 4(%rax) movb $0, %sil movw 80(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 82(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 84(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 86(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 88(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 90(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 92(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 94(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 5(%rax) movb $0, %sil movw 96(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 98(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 100(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 102(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 104(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 106(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 108(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 110(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 6(%rax) movb $0, %sil movw 112(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 114(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 116(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 118(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 120(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 122(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 124(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 126(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 7(%rax) movb $0, %sil movw 128(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 130(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 132(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 134(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 136(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 138(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 140(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 142(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 8(%rax) movb $0, %sil movw 144(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 146(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 148(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 150(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 152(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 154(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 156(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 158(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 9(%rax) movb $0, %sil movw 160(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 162(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 164(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 166(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 168(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 170(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 172(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 174(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 10(%rax) movb $0, %sil movw 176(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 178(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 180(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 182(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 184(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 186(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 188(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 190(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 11(%rax) movb $0, %sil movw 192(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 194(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 196(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 198(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 200(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 202(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 204(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 206(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 12(%rax) movb $0, %sil movw 208(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 210(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 212(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 214(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 216(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 218(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 220(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 222(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 13(%rax) movb $0, %sil movw 224(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 226(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 228(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 230(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 232(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 234(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 236(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 238(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 14(%rax) movb $0, %sil movw 240(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 242(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 244(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 246(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 248(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 250(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 252(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 254(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 15(%rax) movb $0, %sil movw 256(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 258(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 260(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 262(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 264(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 266(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 268(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 270(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 16(%rax) movb $0, %sil movw 272(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 274(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 276(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 278(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 280(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 282(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 284(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 286(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 17(%rax) movb $0, %sil movw 288(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 290(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 292(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 294(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 296(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 298(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 300(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 302(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 18(%rax) movb $0, %sil movw 304(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 306(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 308(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 310(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 312(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 314(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 316(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 318(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 19(%rax) movb $0, %sil movw 320(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 322(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 324(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 326(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 328(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 330(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 332(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 334(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 20(%rax) movb $0, %sil movw 336(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 338(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 340(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 342(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 344(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 346(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 348(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 350(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 21(%rax) movb $0, %sil movw 352(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 354(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 356(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 358(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 360(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 362(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 364(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 366(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 22(%rax) movb $0, %sil movw 368(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 370(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 372(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 374(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 376(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 378(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 380(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 382(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 23(%rax) movb $0, %sil movw 384(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 386(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 388(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 390(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 392(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 394(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 396(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 398(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 24(%rax) movb $0, %sil movw 400(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 402(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 404(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 406(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 408(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 410(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 412(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 414(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 25(%rax) movb $0, %sil movw 416(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 418(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 420(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 422(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 424(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 426(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 428(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 430(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 26(%rax) movb $0, %sil movw 432(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 434(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 436(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 438(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 440(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 442(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 444(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 446(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 27(%rax) movb $0, %sil movw 448(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 450(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 452(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 454(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 456(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 458(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 460(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 462(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 28(%rax) movb $0, %sil movw 464(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 466(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 468(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 470(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 472(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 474(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 476(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 478(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 29(%rax) movb $0, %sil movw 480(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 482(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 484(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 486(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 488(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 490(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 492(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 494(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $7, %edi orb %dil, %sil movb %sil, 30(%rax) movb $0, %sil movw 496(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $0, %edi orb %dil, %sil movw 498(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $1, %edi orb %dil, %sil movw 500(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $2, %edi orb %dil, %sil movw 502(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $3, %edi orb %dil, %sil movw 504(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $4, %edi orb %dil, %sil movw 506(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $5, %edi orb %dil, %sil movw 508(%rcx), %di movzwl %di, %edi shll $1, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $1, %edi shll $6, %edi orb %dil, %sil movw 510(%rcx), %cx movzwl %cx, %ecx shll $1, %ecx addl $1665, %ecx imull $80635, %ecx, %ecx shrl $28, %ecx andl $1, %ecx shll $7, %ecx orb %cl, %sil movb %sil, 31(%rax) ret L_poly_tobytes$1: call L_poly_csubq$1 L_poly_tobytes$4: movq $0, %rsi movq $0, %rdi jmp L_poly_tobytes$2 L_poly_tobytes$3: movw (%rcx,%rsi,2), %r8w incq %rsi movw (%rcx,%rsi,2), %r9w incq %rsi movw %r8w, %r10w andw $255, %r10w movb %r10b, (%rdx,%rdi) incq %rdi shrw $8, %r8w movw %r9w, %r10w andw $15, %r10w shlw $4, %r10w orw %r8w, %r10w movb %r10b, (%rdx,%rdi) incq %rdi shrw $4, %r9w movb %r9b, (%rdx,%rdi) incq %rdi L_poly_tobytes$2: cmpq $256, %rsi jb L_poly_tobytes$3 ret L_poly_sub$1: movq $0, %r8 jmp L_poly_sub$2 L_poly_sub$3: movw (%rsi,%r8,2), %r9w movw (%rdi,%r8,2), %r10w subw %r10w, %r9w movw %r9w, (%rcx,%r8,2) incq %r8 L_poly_sub$2: cmpq $256, %r8 jb L_poly_sub$3 ret L_poly_ntt$1: leaq glob_data + 448(%rip), %rsi movq $0, %rdi movq $128, %r8 jmp L_poly_ntt$4 L_poly_ntt$5: movq $0, %r11 jmp L_poly_ntt$6 L_poly_ntt$7: incq %rdi movw (%rsi,%rdi,2), %r9w movq %r11, %r10 leaq (%r11,%r8), %r11 jmp L_poly_ntt$8 L_poly_ntt$9: leaq (%r10,%r8), %rbx movw (%rcx,%rbx,2), %bp movswl %bp, %ebp movswl %r9w, %r12d imull %r12d, %ebp imull $62209, %ebp, %r12d shll $16, %r12d sarl $16, %r12d imull $3329, %r12d, %r12d subl %r12d, %ebp sarl $16, %ebp movw (%rcx,%r10,2), %r12w movw %r12w, %r13w subw %bp, %r13w movw %r13w, (%rcx,%rbx,2) addw %r12w, %bp movw %bp, (%rcx,%r10,2) incq %r10 L_poly_ntt$8: cmpq %r11, %r10 jb L_poly_ntt$9 leaq (%r10,%r8), %r11 L_poly_ntt$6: cmpq $256, %r11 jb L_poly_ntt$7 shrq $1, %r8 L_poly_ntt$4: cmpq $2, %r8 jnb L_poly_ntt$5 movq $0, %rsi jmp L_poly_ntt$2 L_poly_ntt$3: movw (%rcx,%rsi,2), %di movswl %di, %r8d imull $20159, %r8d, %r8d sarl $26, %r8d imull $3329, %r8d, %r8d subw %r8w, %di movw %di, (%rcx,%rsi,2) incq %rsi L_poly_ntt$2: cmpq $256, %rsi jb L_poly_ntt$3 ret L_poly_invntt$1: leaq glob_data + 192(%rip), %rsi movq $0, %rdi movq $2, %r8 jmp L_poly_invntt$4 L_poly_invntt$5: movq $0, %r11 jmp L_poly_invntt$6 L_poly_invntt$7: movw (%rsi,%rdi,2), %r9w incq %rdi movq %r11, %r10 leaq (%r11,%r8), %r11 jmp L_poly_invntt$8 L_poly_invntt$9: leaq (%r10,%r8), %rbx movw (%rcx,%rbx,2), %bp movw (%rcx,%r10,2), %r12w movw %bp, %r13w addw %r12w, %r13w movswl %r13w, %r14d imull $20159, %r14d, %r14d sarl $26, %r14d imull $3329, %r14d, %r14d subw %r14w, %r13w movw %r13w, (%rcx,%r10,2) subw %bp, %r12w movswl %r12w, %ebp movswl %r9w, %r12d imull %r12d, %ebp imull $62209, %ebp, %r12d shll $16, %r12d sarl $16, %r12d imull $3329, %r12d, %r12d subl %r12d, %ebp sarl $16, %ebp movw %bp, (%rcx,%rbx,2) incq %r10 L_poly_invntt$8: cmpq %r11, %r10 jb L_poly_invntt$9 leaq (%r10,%r8), %r11 L_poly_invntt$6: cmpq $256, %r11 jb L_poly_invntt$7 shlq $1, %r8 L_poly_invntt$4: cmpq $128, %r8 jbe L_poly_invntt$5 movw 254(%rsi), %si movq $0, %rdi jmp L_poly_invntt$2 L_poly_invntt$3: movw (%rcx,%rdi,2), %r8w movswl %r8w, %r8d movswl %si, %r9d imull %r9d, %r8d imull $62209, %r8d, %r9d shll $16, %r9d sarl $16, %r9d imull $3329, %r9d, %r9d subl %r9d, %r8d sarl $16, %r8d movw %r8w, (%rcx,%rdi,2) incq %rdi L_poly_invntt$2: cmpq $256, %rdi jb L_poly_invntt$3 ret L_poly_getnoise$1: movq %rdx, 8(%rsp) movb (%rax), %dl movb %dl, 16(%rsp) movb 1(%rax), %dl movb %dl, 17(%rsp) movb 2(%rax), %dl movb %dl, 18(%rsp) movb 3(%rax), %dl movb %dl, 19(%rsp) movb 4(%rax), %dl movb %dl, 20(%rsp) movb 5(%rax), %dl movb %dl, 21(%rsp) movb 6(%rax), %dl movb %dl, 22(%rsp) movb 7(%rax), %dl movb %dl, 23(%rsp) movb 8(%rax), %dl movb %dl, 24(%rsp) movb 9(%rax), %dl movb %dl, 25(%rsp) movb 10(%rax), %dl movb %dl, 26(%rsp) movb 11(%rax), %dl movb %dl, 27(%rsp) movb 12(%rax), %dl movb %dl, 28(%rsp) movb 13(%rax), %dl movb %dl, 29(%rsp) movb 14(%rax), %dl movb %dl, 30(%rsp) movb 15(%rax), %dl movb %dl, 31(%rsp) movb 16(%rax), %dl movb %dl, 32(%rsp) movb 17(%rax), %dl movb %dl, 33(%rsp) movb 18(%rax), %dl movb %dl, 34(%rsp) movb 19(%rax), %dl movb %dl, 35(%rsp) movb 20(%rax), %dl movb %dl, 36(%rsp) movb 21(%rax), %dl movb %dl, 37(%rsp) movb 22(%rax), %dl movb %dl, 38(%rsp) movb 23(%rax), %dl movb %dl, 39(%rsp) movb 24(%rax), %dl movb %dl, 40(%rsp) movb 25(%rax), %dl movb %dl, 41(%rsp) movb 26(%rax), %dl movb %dl, 42(%rsp) movb 27(%rax), %dl movb %dl, 43(%rsp) movb 28(%rax), %dl movb %dl, 44(%rsp) movb 29(%rax), %dl movb %dl, 45(%rsp) movb 30(%rax), %dl movb %dl, 46(%rsp) movb 31(%rax), %dl movb %dl, 47(%rsp) movb %cl, 48(%rsp) leaq 49(%rsp), %rcx leaq 16(%rsp), %rdx leaq -208(%rsp), %rsp call L_shake256_128_33$1 L_poly_getnoise$4: leaq 208(%rsp), %rsp movq 8(%rsp), %rcx movq $0, %rdx movq $0, %rsi jmp L_poly_getnoise$2 L_poly_getnoise$3: movb 49(%rsp,%rdx), %dil movb %dil, %r8b andb $85, %r8b shrb $1, %dil andb $85, %dil addb %r8b, %dil movb %dil, %r8b andb $3, %r8b movb %dil, %r9b shrb $2, %r9b andb $3, %r9b subb %r9b, %r8b movsbw %r8b, %r8w movw %r8w, (%rcx,%rsi,2) movb %dil, %r8b shrb $4, %r8b andb $3, %r8b shrb $6, %dil andb $3, %dil subb %dil, %r8b movsbw %r8b, %di incq %rsi movw %di, (%rcx,%rsi,2) incq %rdx incq %rsi L_poly_getnoise$2: cmpq $128, %rdx jb L_poly_getnoise$3 ret L_i_poly_frommsg$1: movb (%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, (%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 2(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 4(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 6(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 8(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 10(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 12(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 14(%rdx) movb 1(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 16(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 18(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 20(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 22(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 24(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 26(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 28(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 30(%rdx) movb 2(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 32(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 34(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 36(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 38(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 40(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 42(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 44(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 46(%rdx) movb 3(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 48(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 50(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 52(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 54(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 56(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 58(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 60(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 62(%rdx) movb 4(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 64(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 66(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 68(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 70(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 72(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 74(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 76(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 78(%rdx) movb 5(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 80(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 82(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 84(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 86(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 88(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 90(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 92(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 94(%rdx) movb 6(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 96(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 98(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 100(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 102(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 104(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 106(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 108(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 110(%rdx) movb 7(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 112(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 114(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 116(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 118(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 120(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 122(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 124(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 126(%rdx) movb 8(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 128(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 130(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 132(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 134(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 136(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 138(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 140(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 142(%rdx) movb 9(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 144(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 146(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 148(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 150(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 152(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 154(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 156(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 158(%rdx) movb 10(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 160(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 162(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 164(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 166(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 168(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 170(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 172(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 174(%rdx) movb 11(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 176(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 178(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 180(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 182(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 184(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 186(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 188(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 190(%rdx) movb 12(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 192(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 194(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 196(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 198(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 200(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 202(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 204(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 206(%rdx) movb 13(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 208(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 210(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 212(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 214(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 216(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 218(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 220(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 222(%rdx) movb 14(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 224(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 226(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 228(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 230(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 232(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 234(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 236(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 238(%rdx) movb 15(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 240(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 242(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 244(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 246(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 248(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 250(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 252(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 254(%rdx) movb 16(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 256(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 258(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 260(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 262(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 264(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 266(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 268(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 270(%rdx) movb 17(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 272(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 274(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 276(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 278(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 280(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 282(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 284(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 286(%rdx) movb 18(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 288(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 290(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 292(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 294(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 296(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 298(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 300(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 302(%rdx) movb 19(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 304(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 306(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 308(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 310(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 312(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 314(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 316(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 318(%rdx) movb 20(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 320(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 322(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 324(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 326(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 328(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 330(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 332(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 334(%rdx) movb 21(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 336(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 338(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 340(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 342(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 344(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 346(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 348(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 350(%rdx) movb 22(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 352(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 354(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 356(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 358(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 360(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 362(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 364(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 366(%rdx) movb 23(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 368(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 370(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 372(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 374(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 376(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 378(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 380(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 382(%rdx) movb 24(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 384(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 386(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 388(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 390(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 392(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 394(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 396(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 398(%rdx) movb 25(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 400(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 402(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 404(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 406(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 408(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 410(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 412(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 414(%rdx) movb 26(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 416(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 418(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 420(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 422(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 424(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 426(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 428(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 430(%rdx) movb 27(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 432(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 434(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 436(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 438(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 440(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 442(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 444(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 446(%rdx) movb 28(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 448(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 450(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 452(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 454(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 456(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 458(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 460(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 462(%rdx) movb 29(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 464(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 466(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 468(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 470(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 472(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 474(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 476(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 478(%rdx) movb 30(%rcx), %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 480(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 482(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 484(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 486(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 488(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 490(%rdx) shrb $1, %sil movzbw %sil, %di andw $1, %di imulw $1665, %di, %di movw %di, 492(%rdx) shrb $1, %sil movzbw %sil, %si andw $1, %si imulw $1665, %si, %si movw %si, 494(%rdx) movb 31(%rcx), %cl movzbw %cl, %si andw $1, %si imulw $1665, %si, %si movw %si, 496(%rdx) shrb $1, %cl movzbw %cl, %si andw $1, %si imulw $1665, %si, %si movw %si, 498(%rdx) shrb $1, %cl movzbw %cl, %si andw $1, %si imulw $1665, %si, %si movw %si, 500(%rdx) shrb $1, %cl movzbw %cl, %si andw $1, %si imulw $1665, %si, %si movw %si, 502(%rdx) shrb $1, %cl movzbw %cl, %si andw $1, %si imulw $1665, %si, %si movw %si, 504(%rdx) shrb $1, %cl movzbw %cl, %si andw $1, %si imulw $1665, %si, %si movw %si, 506(%rdx) shrb $1, %cl movzbw %cl, %si andw $1, %si imulw $1665, %si, %si movw %si, 508(%rdx) shrb $1, %cl movzbw %cl, %cx andw $1, %cx imulw $1665, %cx, %cx movw %cx, 510(%rdx) ret L_poly_frommont$1: movw $1353, %cx movq $0, %rdx jmp L_poly_frommont$2 L_poly_frommont$3: movw (%rax,%rdx,2), %si movswl %si, %esi movswl %cx, %edi imull %edi, %esi imull $62209, %esi, %edi shll $16, %edi sarl $16, %edi imull $3329, %edi, %edi subl %edi, %esi sarl $16, %esi movw %si, (%rax,%rdx,2) incq %rdx L_poly_frommont$2: cmpq $256, %rdx jb L_poly_frommont$3 ret L_poly_frombytes$1: movb (%rsi), %r8b movb 1(%rsi), %r9b movb 2(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, (%rdi) movw %r10w, 2(%rdi) movb 3(%rsi), %r8b movb 4(%rsi), %r9b movb 5(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 4(%rdi) movw %r10w, 6(%rdi) movb 6(%rsi), %r8b movb 7(%rsi), %r9b movb 8(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 8(%rdi) movw %r10w, 10(%rdi) movb 9(%rsi), %r8b movb 10(%rsi), %r9b movb 11(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 12(%rdi) movw %r10w, 14(%rdi) movb 12(%rsi), %r8b movb 13(%rsi), %r9b movb 14(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 16(%rdi) movw %r10w, 18(%rdi) movb 15(%rsi), %r8b movb 16(%rsi), %r9b movb 17(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 20(%rdi) movw %r10w, 22(%rdi) movb 18(%rsi), %r8b movb 19(%rsi), %r9b movb 20(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 24(%rdi) movw %r10w, 26(%rdi) movb 21(%rsi), %r8b movb 22(%rsi), %r9b movb 23(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 28(%rdi) movw %r10w, 30(%rdi) movb 24(%rsi), %r8b movb 25(%rsi), %r9b movb 26(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 32(%rdi) movw %r10w, 34(%rdi) movb 27(%rsi), %r8b movb 28(%rsi), %r9b movb 29(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 36(%rdi) movw %r10w, 38(%rdi) movb 30(%rsi), %r8b movb 31(%rsi), %r9b movb 32(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 40(%rdi) movw %r10w, 42(%rdi) movb 33(%rsi), %r8b movb 34(%rsi), %r9b movb 35(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 44(%rdi) movw %r10w, 46(%rdi) movb 36(%rsi), %r8b movb 37(%rsi), %r9b movb 38(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 48(%rdi) movw %r10w, 50(%rdi) movb 39(%rsi), %r8b movb 40(%rsi), %r9b movb 41(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 52(%rdi) movw %r10w, 54(%rdi) movb 42(%rsi), %r8b movb 43(%rsi), %r9b movb 44(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 56(%rdi) movw %r10w, 58(%rdi) movb 45(%rsi), %r8b movb 46(%rsi), %r9b movb 47(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 60(%rdi) movw %r10w, 62(%rdi) movb 48(%rsi), %r8b movb 49(%rsi), %r9b movb 50(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 64(%rdi) movw %r10w, 66(%rdi) movb 51(%rsi), %r8b movb 52(%rsi), %r9b movb 53(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 68(%rdi) movw %r10w, 70(%rdi) movb 54(%rsi), %r8b movb 55(%rsi), %r9b movb 56(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 72(%rdi) movw %r10w, 74(%rdi) movb 57(%rsi), %r8b movb 58(%rsi), %r9b movb 59(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 76(%rdi) movw %r10w, 78(%rdi) movb 60(%rsi), %r8b movb 61(%rsi), %r9b movb 62(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 80(%rdi) movw %r10w, 82(%rdi) movb 63(%rsi), %r8b movb 64(%rsi), %r9b movb 65(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 84(%rdi) movw %r10w, 86(%rdi) movb 66(%rsi), %r8b movb 67(%rsi), %r9b movb 68(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 88(%rdi) movw %r10w, 90(%rdi) movb 69(%rsi), %r8b movb 70(%rsi), %r9b movb 71(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 92(%rdi) movw %r10w, 94(%rdi) movb 72(%rsi), %r8b movb 73(%rsi), %r9b movb 74(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 96(%rdi) movw %r10w, 98(%rdi) movb 75(%rsi), %r8b movb 76(%rsi), %r9b movb 77(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 100(%rdi) movw %r10w, 102(%rdi) movb 78(%rsi), %r8b movb 79(%rsi), %r9b movb 80(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 104(%rdi) movw %r10w, 106(%rdi) movb 81(%rsi), %r8b movb 82(%rsi), %r9b movb 83(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 108(%rdi) movw %r10w, 110(%rdi) movb 84(%rsi), %r8b movb 85(%rsi), %r9b movb 86(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 112(%rdi) movw %r10w, 114(%rdi) movb 87(%rsi), %r8b movb 88(%rsi), %r9b movb 89(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 116(%rdi) movw %r10w, 118(%rdi) movb 90(%rsi), %r8b movb 91(%rsi), %r9b movb 92(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 120(%rdi) movw %r10w, 122(%rdi) movb 93(%rsi), %r8b movb 94(%rsi), %r9b movb 95(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 124(%rdi) movw %r10w, 126(%rdi) movb 96(%rsi), %r8b movb 97(%rsi), %r9b movb 98(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 128(%rdi) movw %r10w, 130(%rdi) movb 99(%rsi), %r8b movb 100(%rsi), %r9b movb 101(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 132(%rdi) movw %r10w, 134(%rdi) movb 102(%rsi), %r8b movb 103(%rsi), %r9b movb 104(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 136(%rdi) movw %r10w, 138(%rdi) movb 105(%rsi), %r8b movb 106(%rsi), %r9b movb 107(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 140(%rdi) movw %r10w, 142(%rdi) movb 108(%rsi), %r8b movb 109(%rsi), %r9b movb 110(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 144(%rdi) movw %r10w, 146(%rdi) movb 111(%rsi), %r8b movb 112(%rsi), %r9b movb 113(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 148(%rdi) movw %r10w, 150(%rdi) movb 114(%rsi), %r8b movb 115(%rsi), %r9b movb 116(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 152(%rdi) movw %r10w, 154(%rdi) movb 117(%rsi), %r8b movb 118(%rsi), %r9b movb 119(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 156(%rdi) movw %r10w, 158(%rdi) movb 120(%rsi), %r8b movb 121(%rsi), %r9b movb 122(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 160(%rdi) movw %r10w, 162(%rdi) movb 123(%rsi), %r8b movb 124(%rsi), %r9b movb 125(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 164(%rdi) movw %r10w, 166(%rdi) movb 126(%rsi), %r8b movb 127(%rsi), %r9b movb 128(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 168(%rdi) movw %r10w, 170(%rdi) movb 129(%rsi), %r8b movb 130(%rsi), %r9b movb 131(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 172(%rdi) movw %r10w, 174(%rdi) movb 132(%rsi), %r8b movb 133(%rsi), %r9b movb 134(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 176(%rdi) movw %r10w, 178(%rdi) movb 135(%rsi), %r8b movb 136(%rsi), %r9b movb 137(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 180(%rdi) movw %r10w, 182(%rdi) movb 138(%rsi), %r8b movb 139(%rsi), %r9b movb 140(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 184(%rdi) movw %r10w, 186(%rdi) movb 141(%rsi), %r8b movb 142(%rsi), %r9b movb 143(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 188(%rdi) movw %r10w, 190(%rdi) movb 144(%rsi), %r8b movb 145(%rsi), %r9b movb 146(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 192(%rdi) movw %r10w, 194(%rdi) movb 147(%rsi), %r8b movb 148(%rsi), %r9b movb 149(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 196(%rdi) movw %r10w, 198(%rdi) movb 150(%rsi), %r8b movb 151(%rsi), %r9b movb 152(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 200(%rdi) movw %r10w, 202(%rdi) movb 153(%rsi), %r8b movb 154(%rsi), %r9b movb 155(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 204(%rdi) movw %r10w, 206(%rdi) movb 156(%rsi), %r8b movb 157(%rsi), %r9b movb 158(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 208(%rdi) movw %r10w, 210(%rdi) movb 159(%rsi), %r8b movb 160(%rsi), %r9b movb 161(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 212(%rdi) movw %r10w, 214(%rdi) movb 162(%rsi), %r8b movb 163(%rsi), %r9b movb 164(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 216(%rdi) movw %r10w, 218(%rdi) movb 165(%rsi), %r8b movb 166(%rsi), %r9b movb 167(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 220(%rdi) movw %r10w, 222(%rdi) movb 168(%rsi), %r8b movb 169(%rsi), %r9b movb 170(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 224(%rdi) movw %r10w, 226(%rdi) movb 171(%rsi), %r8b movb 172(%rsi), %r9b movb 173(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 228(%rdi) movw %r10w, 230(%rdi) movb 174(%rsi), %r8b movb 175(%rsi), %r9b movb 176(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 232(%rdi) movw %r10w, 234(%rdi) movb 177(%rsi), %r8b movb 178(%rsi), %r9b movb 179(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 236(%rdi) movw %r10w, 238(%rdi) movb 180(%rsi), %r8b movb 181(%rsi), %r9b movb 182(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 240(%rdi) movw %r10w, 242(%rdi) movb 183(%rsi), %r8b movb 184(%rsi), %r9b movb 185(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 244(%rdi) movw %r10w, 246(%rdi) movb 186(%rsi), %r8b movb 187(%rsi), %r9b movb 188(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 248(%rdi) movw %r10w, 250(%rdi) movb 189(%rsi), %r8b movb 190(%rsi), %r9b movb 191(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 252(%rdi) movw %r10w, 254(%rdi) movb 192(%rsi), %r8b movb 193(%rsi), %r9b movb 194(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 256(%rdi) movw %r10w, 258(%rdi) movb 195(%rsi), %r8b movb 196(%rsi), %r9b movb 197(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 260(%rdi) movw %r10w, 262(%rdi) movb 198(%rsi), %r8b movb 199(%rsi), %r9b movb 200(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 264(%rdi) movw %r10w, 266(%rdi) movb 201(%rsi), %r8b movb 202(%rsi), %r9b movb 203(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 268(%rdi) movw %r10w, 270(%rdi) movb 204(%rsi), %r8b movb 205(%rsi), %r9b movb 206(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 272(%rdi) movw %r10w, 274(%rdi) movb 207(%rsi), %r8b movb 208(%rsi), %r9b movb 209(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 276(%rdi) movw %r10w, 278(%rdi) movb 210(%rsi), %r8b movb 211(%rsi), %r9b movb 212(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 280(%rdi) movw %r10w, 282(%rdi) movb 213(%rsi), %r8b movb 214(%rsi), %r9b movb 215(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 284(%rdi) movw %r10w, 286(%rdi) movb 216(%rsi), %r8b movb 217(%rsi), %r9b movb 218(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 288(%rdi) movw %r10w, 290(%rdi) movb 219(%rsi), %r8b movb 220(%rsi), %r9b movb 221(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 292(%rdi) movw %r10w, 294(%rdi) movb 222(%rsi), %r8b movb 223(%rsi), %r9b movb 224(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 296(%rdi) movw %r10w, 298(%rdi) movb 225(%rsi), %r8b movb 226(%rsi), %r9b movb 227(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 300(%rdi) movw %r10w, 302(%rdi) movb 228(%rsi), %r8b movb 229(%rsi), %r9b movb 230(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 304(%rdi) movw %r10w, 306(%rdi) movb 231(%rsi), %r8b movb 232(%rsi), %r9b movb 233(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 308(%rdi) movw %r10w, 310(%rdi) movb 234(%rsi), %r8b movb 235(%rsi), %r9b movb 236(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 312(%rdi) movw %r10w, 314(%rdi) movb 237(%rsi), %r8b movb 238(%rsi), %r9b movb 239(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 316(%rdi) movw %r10w, 318(%rdi) movb 240(%rsi), %r8b movb 241(%rsi), %r9b movb 242(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 320(%rdi) movw %r10w, 322(%rdi) movb 243(%rsi), %r8b movb 244(%rsi), %r9b movb 245(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 324(%rdi) movw %r10w, 326(%rdi) movb 246(%rsi), %r8b movb 247(%rsi), %r9b movb 248(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 328(%rdi) movw %r10w, 330(%rdi) movb 249(%rsi), %r8b movb 250(%rsi), %r9b movb 251(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 332(%rdi) movw %r10w, 334(%rdi) movb 252(%rsi), %r8b movb 253(%rsi), %r9b movb 254(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 336(%rdi) movw %r10w, 338(%rdi) movb 255(%rsi), %r8b movb 256(%rsi), %r9b movb 257(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 340(%rdi) movw %r10w, 342(%rdi) movb 258(%rsi), %r8b movb 259(%rsi), %r9b movb 260(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 344(%rdi) movw %r10w, 346(%rdi) movb 261(%rsi), %r8b movb 262(%rsi), %r9b movb 263(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 348(%rdi) movw %r10w, 350(%rdi) movb 264(%rsi), %r8b movb 265(%rsi), %r9b movb 266(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 352(%rdi) movw %r10w, 354(%rdi) movb 267(%rsi), %r8b movb 268(%rsi), %r9b movb 269(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 356(%rdi) movw %r10w, 358(%rdi) movb 270(%rsi), %r8b movb 271(%rsi), %r9b movb 272(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 360(%rdi) movw %r10w, 362(%rdi) movb 273(%rsi), %r8b movb 274(%rsi), %r9b movb 275(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 364(%rdi) movw %r10w, 366(%rdi) movb 276(%rsi), %r8b movb 277(%rsi), %r9b movb 278(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 368(%rdi) movw %r10w, 370(%rdi) movb 279(%rsi), %r8b movb 280(%rsi), %r9b movb 281(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 372(%rdi) movw %r10w, 374(%rdi) movb 282(%rsi), %r8b movb 283(%rsi), %r9b movb 284(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 376(%rdi) movw %r10w, 378(%rdi) movb 285(%rsi), %r8b movb 286(%rsi), %r9b movb 287(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 380(%rdi) movw %r10w, 382(%rdi) movb 288(%rsi), %r8b movb 289(%rsi), %r9b movb 290(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 384(%rdi) movw %r10w, 386(%rdi) movb 291(%rsi), %r8b movb 292(%rsi), %r9b movb 293(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 388(%rdi) movw %r10w, 390(%rdi) movb 294(%rsi), %r8b movb 295(%rsi), %r9b movb 296(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 392(%rdi) movw %r10w, 394(%rdi) movb 297(%rsi), %r8b movb 298(%rsi), %r9b movb 299(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 396(%rdi) movw %r10w, 398(%rdi) movb 300(%rsi), %r8b movb 301(%rsi), %r9b movb 302(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 400(%rdi) movw %r10w, 402(%rdi) movb 303(%rsi), %r8b movb 304(%rsi), %r9b movb 305(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 404(%rdi) movw %r10w, 406(%rdi) movb 306(%rsi), %r8b movb 307(%rsi), %r9b movb 308(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 408(%rdi) movw %r10w, 410(%rdi) movb 309(%rsi), %r8b movb 310(%rsi), %r9b movb 311(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 412(%rdi) movw %r10w, 414(%rdi) movb 312(%rsi), %r8b movb 313(%rsi), %r9b movb 314(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 416(%rdi) movw %r10w, 418(%rdi) movb 315(%rsi), %r8b movb 316(%rsi), %r9b movb 317(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 420(%rdi) movw %r10w, 422(%rdi) movb 318(%rsi), %r8b movb 319(%rsi), %r9b movb 320(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 424(%rdi) movw %r10w, 426(%rdi) movb 321(%rsi), %r8b movb 322(%rsi), %r9b movb 323(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 428(%rdi) movw %r10w, 430(%rdi) movb 324(%rsi), %r8b movb 325(%rsi), %r9b movb 326(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 432(%rdi) movw %r10w, 434(%rdi) movb 327(%rsi), %r8b movb 328(%rsi), %r9b movb 329(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 436(%rdi) movw %r10w, 438(%rdi) movb 330(%rsi), %r8b movb 331(%rsi), %r9b movb 332(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 440(%rdi) movw %r10w, 442(%rdi) movb 333(%rsi), %r8b movb 334(%rsi), %r9b movb 335(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 444(%rdi) movw %r10w, 446(%rdi) movb 336(%rsi), %r8b movb 337(%rsi), %r9b movb 338(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 448(%rdi) movw %r10w, 450(%rdi) movb 339(%rsi), %r8b movb 340(%rsi), %r9b movb 341(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 452(%rdi) movw %r10w, 454(%rdi) movb 342(%rsi), %r8b movb 343(%rsi), %r9b movb 344(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 456(%rdi) movw %r10w, 458(%rdi) movb 345(%rsi), %r8b movb 346(%rsi), %r9b movb 347(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 460(%rdi) movw %r10w, 462(%rdi) movb 348(%rsi), %r8b movb 349(%rsi), %r9b movb 350(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 464(%rdi) movw %r10w, 466(%rdi) movb 351(%rsi), %r8b movb 352(%rsi), %r9b movb 353(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 468(%rdi) movw %r10w, 470(%rdi) movb 354(%rsi), %r8b movb 355(%rsi), %r9b movb 356(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 472(%rdi) movw %r10w, 474(%rdi) movb 357(%rsi), %r8b movb 358(%rsi), %r9b movb 359(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 476(%rdi) movw %r10w, 478(%rdi) movb 360(%rsi), %r8b movb 361(%rsi), %r9b movb 362(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 480(%rdi) movw %r10w, 482(%rdi) movb 363(%rsi), %r8b movb 364(%rsi), %r9b movb 365(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 484(%rdi) movw %r10w, 486(%rdi) movb 366(%rsi), %r8b movb 367(%rsi), %r9b movb 368(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 488(%rdi) movw %r10w, 490(%rdi) movb 369(%rsi), %r8b movb 370(%rsi), %r9b movb 371(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 492(%rdi) movw %r10w, 494(%rdi) movb 372(%rsi), %r8b movb 373(%rsi), %r9b movb 374(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 496(%rdi) movw %r10w, 498(%rdi) movb 375(%rsi), %r8b movb 376(%rsi), %r9b movb 377(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 500(%rdi) movw %r10w, 502(%rdi) movb 378(%rsi), %r8b movb 379(%rsi), %r9b movb 380(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 504(%rdi) movw %r10w, 506(%rdi) movb 381(%rsi), %r8b movb 382(%rsi), %r9b movb 383(%rsi), %r10b movzbw %r8b, %r8w movzbw %r9b, %r11w andw $15, %r11w shlw $8, %r11w orw %r11w, %r8w movzbw %r10b, %r10w shlw $4, %r10w movzbw %r9b, %r9w shrw $4, %r9w orw %r9w, %r10w movw %r8w, 508(%rdi) movw %r10w, 510(%rdi) ret L_poly_decompress$1: movq $0, %rdi movq $0, %r8 jmp L_poly_decompress$2 L_poly_decompress$3: movb (%rsi,%rdi), %r9b movzbw %r9b, %r10w movzbw %r9b, %r9w andw $15, %r10w shrw $4, %r9w imulw $3329, %r10w, %r10w imulw $3329, %r9w, %r9w addw $8, %r10w addw $8, %r9w shrw $4, %r10w shrw $4, %r9w movw %r10w, (%rcx,%r8,2) incq %r8 movw %r9w, (%rcx,%r8,2) incq %r8 incq %rdi L_poly_decompress$2: cmpq $128, %rdi jb L_poly_decompress$3 ret L_i_poly_compress$1: call L_poly_csubq$1 L_i_poly_compress$4: movq $0, %rdx movq $0, %rsi jmp L_i_poly_compress$2 L_i_poly_compress$3: movw (%rcx,%rsi,2), %di movzwl %di, %edi shll $4, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $15, %edi incq %rsi movw (%rcx,%rsi,2), %r8w movzwl %r8w, %r8d shll $4, %r8d addl $1665, %r8d imull $80635, %r8d, %r8d shrl $28, %r8d andl $15, %r8d shll $4, %r8d orl %r8d, %edi movb %dil, (%rax,%rdx) incq %rdx incq %rsi L_i_poly_compress$2: cmpq $128, %rdx jb L_i_poly_compress$3 ret L_poly_compress$1: call L_poly_csubq$1 L_poly_compress$4: movq $0, %rdx movq $0, %rsi jmp L_poly_compress$2 L_poly_compress$3: movw (%rcx,%rsi,2), %di movzwl %di, %edi shll $4, %edi addl $1665, %edi imull $80635, %edi, %edi shrl $28, %edi andl $15, %edi incq %rsi movw (%rcx,%rsi,2), %r8w movzwl %r8w, %r8d shll $4, %r8d addl $1665, %r8d imull $80635, %r8d, %r8d shrl $28, %r8d andl $15, %r8d shll $4, %r8d orl %r8d, %edi movb %dil, (%rax,%rdx) incq %rdx incq %rsi L_poly_compress$2: cmpq $128, %rdx jb L_poly_compress$3 ret L_poly_basemul$1: movq %rdi, 8(%rsp) movq $64, %rdi movq $0, %r8 jmp L_poly_basemul$2 L_poly_basemul$3: leaq glob_data + 448(%rip), %r9 movw (%r9,%rdi,2), %r9w incq %rdi movw (%rcx,%r8,2), %r10w movw (%rsi,%r8,2), %r11w incq %r8 movw (%rcx,%r8,2), %bx movw (%rsi,%r8,2), %bp addq $-1, %r8 movswl %bx, %r12d movswl %bp, %r13d imull %r13d, %r12d imull $62209, %r12d, %r13d shll $16, %r13d sarl $16, %r13d imull $3329, %r13d, %r13d subl %r13d, %r12d sarl $16, %r12d movswl %r12w, %r12d movswl %r9w, %r13d imull %r13d, %r12d imull $62209, %r12d, %r13d shll $16, %r13d sarl $16, %r13d imull $3329, %r13d, %r13d subl %r13d, %r12d sarl $16, %r12d movswl %r10w, %r13d movswl %r11w, %r14d imull %r14d, %r13d imull $62209, %r13d, %r14d shll $16, %r14d sarl $16, %r14d imull $3329, %r14d, %r14d subl %r14d, %r13d sarl $16, %r13d addw %r13w, %r12w movswl %r10w, %r10d movswl %bp, %ebp imull %ebp, %r10d imull $62209, %r10d, %ebp shll $16, %ebp sarl $16, %ebp imull $3329, %ebp, %ebp subl %ebp, %r10d sarl $16, %r10d movswl %bx, %ebx movswl %r11w, %r11d imull %r11d, %ebx imull $62209, %ebx, %r11d shll $16, %r11d sarl $16, %r11d imull $3329, %r11d, %r11d subl %r11d, %ebx sarl $16, %ebx addw %bx, %r10w movq 8(%rsp), %r11 movw %r12w, (%r11,%r8,2) incq %r8 movw %r10w, (%r11,%r8,2) movq %r11, 16(%rsp) negw %r9w incq %r8 movw (%rcx,%r8,2), %r10w movw (%rsi,%r8,2), %r11w incq %r8 movw (%rcx,%r8,2), %bx movw (%rsi,%r8,2), %bp addq $-1, %r8 movswl %bx, %r12d movswl %bp, %r13d imull %r13d, %r12d imull $62209, %r12d, %r13d shll $16, %r13d sarl $16, %r13d imull $3329, %r13d, %r13d subl %r13d, %r12d sarl $16, %r12d movswl %r12w, %r12d movswl %r9w, %r9d imull %r9d, %r12d imull $62209, %r12d, %r9d shll $16, %r9d sarl $16, %r9d imull $3329, %r9d, %r9d subl %r9d, %r12d sarl $16, %r12d movw %r12w, %r9w movswl %r10w, %r12d movswl %r11w, %r13d imull %r13d, %r12d imull $62209, %r12d, %r13d shll $16, %r13d sarl $16, %r13d imull $3329, %r13d, %r13d subl %r13d, %r12d sarl $16, %r12d addw %r12w, %r9w movswl %r10w, %r10d movswl %bp, %ebp imull %ebp, %r10d imull $62209, %r10d, %ebp shll $16, %ebp sarl $16, %ebp imull $3329, %ebp, %ebp subl %ebp, %r10d sarl $16, %r10d movswl %bx, %ebx movswl %r11w, %r11d imull %r11d, %ebx imull $62209, %ebx, %r11d shll $16, %r11d sarl $16, %r11d imull $3329, %r11d, %r11d subl %r11d, %ebx sarl $16, %ebx addw %bx, %r10w movq 16(%rsp), %r11 movw %r9w, (%r11,%r8,2) incq %r8 movw %r10w, (%r11,%r8,2) incq %r8 L_poly_basemul$2: cmpq $256, %r8 jb L_poly_basemul$3 ret L_poly_csubq$1: movq $0, %r8 jmp L_poly_csubq$2 L_poly_csubq$3: movw (%rcx,%r8,2), %r9w addw $-3329, %r9w movw %r9w, %r10w sarw $15, %r10w andw $3329, %r10w addw %r10w, %r9w movw %r9w, (%rcx,%r8,2) incq %r8 L_poly_csubq$2: cmpq $256, %r8 jb L_poly_csubq$3 ret L_poly_add2$1: movq $0, %rdi jmp L_poly_add2$2 L_poly_add2$3: movw (%rcx,%rdi,2), %r8w movw (%rsi,%rdi,2), %r9w addw %r9w, %r8w movw %r8w, (%rcx,%rdi,2) incq %rdi L_poly_add2$2: cmpq $256, %rdi jb L_poly_add2$3 ret L_shake256_64$1: movq %rax, 8(%rsp) movq %rcx, 16(%rsp) leaq 24(%rsp), %rcx xorq %rax, %rax movq %rax, (%rcx) movq %rax, 8(%rcx) movq %rax, 16(%rcx) movq %rax, 24(%rcx) movq %rax, 32(%rcx) movq %rax, 40(%rcx) movq %rax, 48(%rcx) movq %rax, 56(%rcx) movq %rax, 64(%rcx) movq %rax, 72(%rcx) movq %rax, 80(%rcx) movq %rax, 88(%rcx) movq %rax, 96(%rcx) movq %rax, 104(%rcx) movq %rax, 112(%rcx) movq %rax, 120(%rcx) movq %rax, 128(%rcx) movq %rax, 136(%rcx) movq %rax, 144(%rcx) movq %rax, 152(%rcx) movq %rax, 160(%rcx) movq %rax, 168(%rcx) movq %rax, 176(%rcx) movq %rax, 184(%rcx) movq %rax, 192(%rcx) movq (%rdx), %rax xorq %rax, (%rcx) movq 8(%rdx), %rax xorq %rax, 8(%rcx) movq 16(%rdx), %rax xorq %rax, 16(%rcx) movq 24(%rdx), %rax xorq %rax, 24(%rcx) movq 32(%rdx), %rax xorq %rax, 32(%rcx) movq 40(%rdx), %rax xorq %rax, 40(%rcx) movq 48(%rdx), %rax xorq %rax, 48(%rcx) movq 56(%rdx), %rax xorq %rax, 56(%rcx) xorb $31, 64(%rcx) xorb $-128, 135(%rcx) leaq -224(%rsp), %rsp call L_keccakf1600_ref1$1 L_shake256_64$9: leaq 224(%rsp), %rsp movq 16(%rsp), %rax movq 8(%rsp), %rdx jmp L_shake256_64$6 L_shake256_64$7: movq (%rcx), %rsi movq %rsi, (%rdx) movq 8(%rcx), %rsi movq %rsi, 8(%rdx) movq 16(%rcx), %rsi movq %rsi, 16(%rdx) movq 24(%rcx), %rsi movq %rsi, 24(%rdx) movq 32(%rcx), %rsi movq %rsi, 32(%rdx) movq 40(%rcx), %rsi movq %rsi, 40(%rdx) movq 48(%rcx), %rsi movq %rsi, 48(%rdx) movq 56(%rcx), %rsi movq %rsi, 56(%rdx) movq 64(%rcx), %rsi movq %rsi, 64(%rdx) movq 72(%rcx), %rsi movq %rsi, 72(%rdx) movq 80(%rcx), %rsi movq %rsi, 80(%rdx) movq 88(%rcx), %rsi movq %rsi, 88(%rdx) movq 96(%rcx), %rsi movq %rsi, 96(%rdx) movq 104(%rcx), %rsi movq %rsi, 104(%rdx) movq 112(%rcx), %rsi movq %rsi, 112(%rdx) movq 120(%rcx), %rsi movq %rsi, 120(%rdx) movq 128(%rcx), %rsi movq %rsi, 128(%rdx) addq $136, %rdx addq $-136, %rax movq %rdx, 8(%rsp) movq %rax, 16(%rsp) leaq -224(%rsp), %rsp call L_keccakf1600_ref1$1 L_shake256_64$8: leaq 224(%rsp), %rsp movq 16(%rsp), %rax movq 8(%rsp), %rdx L_shake256_64$6: cmpq $136, %rax jnbe L_shake256_64$7 movq %rax, 8(%rsp) shrq $3, %rax movq $0, %rsi jmp L_shake256_64$4 L_shake256_64$5: movq (%rcx,%rsi,8), %rdi movq %rdi, (%rdx,%rsi,8) incq %rsi L_shake256_64$4: cmpq %rax, %rsi jb L_shake256_64$5 shlq $3, %rsi movq 8(%rsp), %rax jmp L_shake256_64$2 L_shake256_64$3: movb (%rcx,%rsi), %dil movb %dil, (%rdx,%rsi) incq %rsi L_shake256_64$2: cmpq %rax, %rsi jb L_shake256_64$3 ret L_sha3_512_64$1: movq %rax, 8(%rsp) leaq 16(%rsp), %rcx xorq %rax, %rax movq %rax, (%rcx) movq %rax, 8(%rcx) movq %rax, 16(%rcx) movq %rax, 24(%rcx) movq %rax, 32(%rcx) movq %rax, 40(%rcx) movq %rax, 48(%rcx) movq %rax, 56(%rcx) movq %rax, 64(%rcx) movq %rax, 72(%rcx) movq %rax, 80(%rcx) movq %rax, 88(%rcx) movq %rax, 96(%rcx) movq %rax, 104(%rcx) movq %rax, 112(%rcx) movq %rax, 120(%rcx) movq %rax, 128(%rcx) movq %rax, 136(%rcx) movq %rax, 144(%rcx) movq %rax, 152(%rcx) movq %rax, 160(%rcx) movq %rax, 168(%rcx) movq %rax, 176(%rcx) movq %rax, 184(%rcx) movq %rax, 192(%rcx) movq (%rdx), %rax xorq %rax, (%rcx) movq 8(%rdx), %rax xorq %rax, 8(%rcx) movq 16(%rdx), %rax xorq %rax, 16(%rcx) movq 24(%rdx), %rax xorq %rax, 24(%rcx) movq 32(%rdx), %rax xorq %rax, 32(%rcx) movq 40(%rdx), %rax xorq %rax, 40(%rcx) movq 48(%rdx), %rax xorq %rax, 48(%rcx) movq 56(%rdx), %rax xorq %rax, 56(%rcx) xorb $6, 64(%rcx) xorb $-128, 71(%rcx) leaq -224(%rsp), %rsp call L_keccakf1600_ref1$1 L_sha3_512_64$2: leaq 224(%rsp), %rsp movq 8(%rsp), %rax movq (%rcx), %rdx movq %rdx, (%rax) movq 8(%rcx), %rdx movq %rdx, 8(%rax) movq 16(%rcx), %rdx movq %rdx, 16(%rax) movq 24(%rcx), %rdx movq %rdx, 24(%rax) movq 32(%rcx), %rdx movq %rdx, 32(%rax) movq 40(%rcx), %rdx movq %rdx, 40(%rax) movq 48(%rcx), %rdx movq %rdx, 48(%rax) movq 56(%rcx), %rcx movq %rcx, 56(%rax) ret L_sha3_256_32$1: movq %rax, 8(%rsp) leaq 16(%rsp), %rcx xorq %rax, %rax movq %rax, (%rcx) movq %rax, 8(%rcx) movq %rax, 16(%rcx) movq %rax, 24(%rcx) movq %rax, 32(%rcx) movq %rax, 40(%rcx) movq %rax, 48(%rcx) movq %rax, 56(%rcx) movq %rax, 64(%rcx) movq %rax, 72(%rcx) movq %rax, 80(%rcx) movq %rax, 88(%rcx) movq %rax, 96(%rcx) movq %rax, 104(%rcx) movq %rax, 112(%rcx) movq %rax, 120(%rcx) movq %rax, 128(%rcx) movq %rax, 136(%rcx) movq %rax, 144(%rcx) movq %rax, 152(%rcx) movq %rax, 160(%rcx) movq %rax, 168(%rcx) movq %rax, 176(%rcx) movq %rax, 184(%rcx) movq %rax, 192(%rcx) movq (%rdx), %rax movq %rax, (%rcx) movq 8(%rdx), %rax movq %rax, 8(%rcx) movq 16(%rdx), %rax movq %rax, 16(%rcx) movq 24(%rdx), %rax movq %rax, 24(%rcx) xorb $6, 32(%rcx) movb $-128, 135(%rcx) leaq -224(%rsp), %rsp call L_keccakf1600_ref1$1 L_sha3_256_32$2: leaq 224(%rsp), %rsp movq 8(%rsp), %rax movq (%rcx), %rdx movq %rdx, (%rax) movq 8(%rcx), %rdx movq %rdx, 8(%rax) movq 16(%rcx), %rdx movq %rdx, 16(%rax) movq 24(%rcx), %rcx movq %rcx, 24(%rax) ret L_sha3_256$1: movq %rcx, 8(%rsp) leaq 40(%rsp), %rcx xorq %rdx, %rdx movq %rdx, (%rcx) movq %rdx, 8(%rcx) movq %rdx, 16(%rcx) movq %rdx, 24(%rcx) movq %rdx, 32(%rcx) movq %rdx, 40(%rcx) movq %rdx, 48(%rcx) movq %rdx, 56(%rcx) movq %rdx, 64(%rcx) movq %rdx, 72(%rcx) movq %rdx, 80(%rcx) movq %rdx, 88(%rcx) movq %rdx, 96(%rcx) movq %rdx, 104(%rcx) movq %rdx, 112(%rcx) movq %rdx, 120(%rcx) movq %rdx, 128(%rcx) movq %rdx, 136(%rcx) movq %rdx, 144(%rcx) movq %rdx, 152(%rcx) movq %rdx, 160(%rcx) movq %rdx, 168(%rcx) movq %rdx, 176(%rcx) movq %rdx, 184(%rcx) movq %rdx, 192(%rcx) movq $136, %rdx jmp L_sha3_256$7 L_sha3_256$8: movq %rdx, %rdi shrq $3, %rdi movq $0, %r8 jmp L_sha3_256$10 L_sha3_256$11: movq (%rsi,%r8,8), %r9 xorq %r9, (%rcx,%r8,8) incq %r8 L_sha3_256$10: cmpq %rdi, %r8 jb L_sha3_256$11 addq %rdx, %rsi subq %rdx, %rax movq %rsi, 16(%rsp) movq %rax, 24(%rsp) movq %rdx, 32(%rsp) leaq -224(%rsp), %rsp call L_keccakf1600_ref1$1 L_sha3_256$9: leaq 224(%rsp), %rsp movq 16(%rsp), %rsi movq 24(%rsp), %rax movq 32(%rsp), %rdx L_sha3_256$7: cmpq %rdx, %rax jnb L_sha3_256$8 movb $6, %dil movq %rax, %r8 shrq $3, %r8 movq $0, %r9 jmp L_sha3_256$5 L_sha3_256$6: movq (%rsi,%r9,8), %r10 xorq %r10, (%rcx,%r9,8) incq %r9 L_sha3_256$5: cmpq %r8, %r9 jb L_sha3_256$6 shlq $3, %r9 jmp L_sha3_256$3 L_sha3_256$4: movb (%rsi,%r9), %r8b xorb %r8b, (%rcx,%r9) incq %r9 L_sha3_256$3: cmpq %rax, %r9 jb L_sha3_256$4 xorb %dil, (%rcx,%r9) addq $-1, %rdx xorb $-128, (%rcx,%rdx) leaq -224(%rsp), %rsp call L_keccakf1600_ref1$1 L_sha3_256$2: leaq 224(%rsp), %rsp movq 8(%rsp), %rax movq (%rcx), %rdx movq %rdx, (%rax) movq 8(%rcx), %rdx movq %rdx, 8(%rax) movq 16(%rcx), %rdx movq %rdx, 16(%rax) movq 24(%rcx), %rcx movq %rcx, 24(%rax) ret L_shake128_squeezeblock$1: movq %rdx, 8(%rsp) leaq -224(%rsp), %rsp call L_keccakf1600_ref1$1 L_shake128_squeezeblock$2: leaq 224(%rsp), %rsp movq 8(%rsp), %rdx movb (%rcx), %sil movb %sil, (%rdx) movb 1(%rcx), %sil movb %sil, 1(%rdx) movb 2(%rcx), %sil movb %sil, 2(%rdx) movb 3(%rcx), %sil movb %sil, 3(%rdx) movb 4(%rcx), %sil movb %sil, 4(%rdx) movb 5(%rcx), %sil movb %sil, 5(%rdx) movb 6(%rcx), %sil movb %sil, 6(%rdx) movb 7(%rcx), %sil movb %sil, 7(%rdx) movb 8(%rcx), %sil movb %sil, 8(%rdx) movb 9(%rcx), %sil movb %sil, 9(%rdx) movb 10(%rcx), %sil movb %sil, 10(%rdx) movb 11(%rcx), %sil movb %sil, 11(%rdx) movb 12(%rcx), %sil movb %sil, 12(%rdx) movb 13(%rcx), %sil movb %sil, 13(%rdx) movb 14(%rcx), %sil movb %sil, 14(%rdx) movb 15(%rcx), %sil movb %sil, 15(%rdx) movb 16(%rcx), %sil movb %sil, 16(%rdx) movb 17(%rcx), %sil movb %sil, 17(%rdx) movb 18(%rcx), %sil movb %sil, 18(%rdx) movb 19(%rcx), %sil movb %sil, 19(%rdx) movb 20(%rcx), %sil movb %sil, 20(%rdx) movb 21(%rcx), %sil movb %sil, 21(%rdx) movb 22(%rcx), %sil movb %sil, 22(%rdx) movb 23(%rcx), %sil movb %sil, 23(%rdx) movb 24(%rcx), %sil movb %sil, 24(%rdx) movb 25(%rcx), %sil movb %sil, 25(%rdx) movb 26(%rcx), %sil movb %sil, 26(%rdx) movb 27(%rcx), %sil movb %sil, 27(%rdx) movb 28(%rcx), %sil movb %sil, 28(%rdx) movb 29(%rcx), %sil movb %sil, 29(%rdx) movb 30(%rcx), %sil movb %sil, 30(%rdx) movb 31(%rcx), %sil movb %sil, 31(%rdx) movb 32(%rcx), %sil movb %sil, 32(%rdx) movb 33(%rcx), %sil movb %sil, 33(%rdx) movb 34(%rcx), %sil movb %sil, 34(%rdx) movb 35(%rcx), %sil movb %sil, 35(%rdx) movb 36(%rcx), %sil movb %sil, 36(%rdx) movb 37(%rcx), %sil movb %sil, 37(%rdx) movb 38(%rcx), %sil movb %sil, 38(%rdx) movb 39(%rcx), %sil movb %sil, 39(%rdx) movb 40(%rcx), %sil movb %sil, 40(%rdx) movb 41(%rcx), %sil movb %sil, 41(%rdx) movb 42(%rcx), %sil movb %sil, 42(%rdx) movb 43(%rcx), %sil movb %sil, 43(%rdx) movb 44(%rcx), %sil movb %sil, 44(%rdx) movb 45(%rcx), %sil movb %sil, 45(%rdx) movb 46(%rcx), %sil movb %sil, 46(%rdx) movb 47(%rcx), %sil movb %sil, 47(%rdx) movb 48(%rcx), %sil movb %sil, 48(%rdx) movb 49(%rcx), %sil movb %sil, 49(%rdx) movb 50(%rcx), %sil movb %sil, 50(%rdx) movb 51(%rcx), %sil movb %sil, 51(%rdx) movb 52(%rcx), %sil movb %sil, 52(%rdx) movb 53(%rcx), %sil movb %sil, 53(%rdx) movb 54(%rcx), %sil movb %sil, 54(%rdx) movb 55(%rcx), %sil movb %sil, 55(%rdx) movb 56(%rcx), %sil movb %sil, 56(%rdx) movb 57(%rcx), %sil movb %sil, 57(%rdx) movb 58(%rcx), %sil movb %sil, 58(%rdx) movb 59(%rcx), %sil movb %sil, 59(%rdx) movb 60(%rcx), %sil movb %sil, 60(%rdx) movb 61(%rcx), %sil movb %sil, 61(%rdx) movb 62(%rcx), %sil movb %sil, 62(%rdx) movb 63(%rcx), %sil movb %sil, 63(%rdx) movb 64(%rcx), %sil movb %sil, 64(%rdx) movb 65(%rcx), %sil movb %sil, 65(%rdx) movb 66(%rcx), %sil movb %sil, 66(%rdx) movb 67(%rcx), %sil movb %sil, 67(%rdx) movb 68(%rcx), %sil movb %sil, 68(%rdx) movb 69(%rcx), %sil movb %sil, 69(%rdx) movb 70(%rcx), %sil movb %sil, 70(%rdx) movb 71(%rcx), %sil movb %sil, 71(%rdx) movb 72(%rcx), %sil movb %sil, 72(%rdx) movb 73(%rcx), %sil movb %sil, 73(%rdx) movb 74(%rcx), %sil movb %sil, 74(%rdx) movb 75(%rcx), %sil movb %sil, 75(%rdx) movb 76(%rcx), %sil movb %sil, 76(%rdx) movb 77(%rcx), %sil movb %sil, 77(%rdx) movb 78(%rcx), %sil movb %sil, 78(%rdx) movb 79(%rcx), %sil movb %sil, 79(%rdx) movb 80(%rcx), %sil movb %sil, 80(%rdx) movb 81(%rcx), %sil movb %sil, 81(%rdx) movb 82(%rcx), %sil movb %sil, 82(%rdx) movb 83(%rcx), %sil movb %sil, 83(%rdx) movb 84(%rcx), %sil movb %sil, 84(%rdx) movb 85(%rcx), %sil movb %sil, 85(%rdx) movb 86(%rcx), %sil movb %sil, 86(%rdx) movb 87(%rcx), %sil movb %sil, 87(%rdx) movb 88(%rcx), %sil movb %sil, 88(%rdx) movb 89(%rcx), %sil movb %sil, 89(%rdx) movb 90(%rcx), %sil movb %sil, 90(%rdx) movb 91(%rcx), %sil movb %sil, 91(%rdx) movb 92(%rcx), %sil movb %sil, 92(%rdx) movb 93(%rcx), %sil movb %sil, 93(%rdx) movb 94(%rcx), %sil movb %sil, 94(%rdx) movb 95(%rcx), %sil movb %sil, 95(%rdx) movb 96(%rcx), %sil movb %sil, 96(%rdx) movb 97(%rcx), %sil movb %sil, 97(%rdx) movb 98(%rcx), %sil movb %sil, 98(%rdx) movb 99(%rcx), %sil movb %sil, 99(%rdx) movb 100(%rcx), %sil movb %sil, 100(%rdx) movb 101(%rcx), %sil movb %sil, 101(%rdx) movb 102(%rcx), %sil movb %sil, 102(%rdx) movb 103(%rcx), %sil movb %sil, 103(%rdx) movb 104(%rcx), %sil movb %sil, 104(%rdx) movb 105(%rcx), %sil movb %sil, 105(%rdx) movb 106(%rcx), %sil movb %sil, 106(%rdx) movb 107(%rcx), %sil movb %sil, 107(%rdx) movb 108(%rcx), %sil movb %sil, 108(%rdx) movb 109(%rcx), %sil movb %sil, 109(%rdx) movb 110(%rcx), %sil movb %sil, 110(%rdx) movb 111(%rcx), %sil movb %sil, 111(%rdx) movb 112(%rcx), %sil movb %sil, 112(%rdx) movb 113(%rcx), %sil movb %sil, 113(%rdx) movb 114(%rcx), %sil movb %sil, 114(%rdx) movb 115(%rcx), %sil movb %sil, 115(%rdx) movb 116(%rcx), %sil movb %sil, 116(%rdx) movb 117(%rcx), %sil movb %sil, 117(%rdx) movb 118(%rcx), %sil movb %sil, 118(%rdx) movb 119(%rcx), %sil movb %sil, 119(%rdx) movb 120(%rcx), %sil movb %sil, 120(%rdx) movb 121(%rcx), %sil movb %sil, 121(%rdx) movb 122(%rcx), %sil movb %sil, 122(%rdx) movb 123(%rcx), %sil movb %sil, 123(%rdx) movb 124(%rcx), %sil movb %sil, 124(%rdx) movb 125(%rcx), %sil movb %sil, 125(%rdx) movb 126(%rcx), %sil movb %sil, 126(%rdx) movb 127(%rcx), %sil movb %sil, 127(%rdx) movb 128(%rcx), %sil movb %sil, 128(%rdx) movb 129(%rcx), %sil movb %sil, 129(%rdx) movb 130(%rcx), %sil movb %sil, 130(%rdx) movb 131(%rcx), %sil movb %sil, 131(%rdx) movb 132(%rcx), %sil movb %sil, 132(%rdx) movb 133(%rcx), %sil movb %sil, 133(%rdx) movb 134(%rcx), %sil movb %sil, 134(%rdx) movb 135(%rcx), %sil movb %sil, 135(%rdx) movb 136(%rcx), %sil movb %sil, 136(%rdx) movb 137(%rcx), %sil movb %sil, 137(%rdx) movb 138(%rcx), %sil movb %sil, 138(%rdx) movb 139(%rcx), %sil movb %sil, 139(%rdx) movb 140(%rcx), %sil movb %sil, 140(%rdx) movb 141(%rcx), %sil movb %sil, 141(%rdx) movb 142(%rcx), %sil movb %sil, 142(%rdx) movb 143(%rcx), %sil movb %sil, 143(%rdx) movb 144(%rcx), %sil movb %sil, 144(%rdx) movb 145(%rcx), %sil movb %sil, 145(%rdx) movb 146(%rcx), %sil movb %sil, 146(%rdx) movb 147(%rcx), %sil movb %sil, 147(%rdx) movb 148(%rcx), %sil movb %sil, 148(%rdx) movb 149(%rcx), %sil movb %sil, 149(%rdx) movb 150(%rcx), %sil movb %sil, 150(%rdx) movb 151(%rcx), %sil movb %sil, 151(%rdx) movb 152(%rcx), %sil movb %sil, 152(%rdx) movb 153(%rcx), %sil movb %sil, 153(%rdx) movb 154(%rcx), %sil movb %sil, 154(%rdx) movb 155(%rcx), %sil movb %sil, 155(%rdx) movb 156(%rcx), %sil movb %sil, 156(%rdx) movb 157(%rcx), %sil movb %sil, 157(%rdx) movb 158(%rcx), %sil movb %sil, 158(%rdx) movb 159(%rcx), %sil movb %sil, 159(%rdx) movb 160(%rcx), %sil movb %sil, 160(%rdx) movb 161(%rcx), %sil movb %sil, 161(%rdx) movb 162(%rcx), %sil movb %sil, 162(%rdx) movb 163(%rcx), %sil movb %sil, 163(%rdx) movb 164(%rcx), %sil movb %sil, 164(%rdx) movb 165(%rcx), %sil movb %sil, 165(%rdx) movb 166(%rcx), %sil movb %sil, 166(%rdx) movb 167(%rcx), %cl movb %cl, 167(%rdx) ret L_shake128_absorb34$1: xorq %rsi, %rsi movq %rsi, (%rcx) movq %rsi, 8(%rcx) movq %rsi, 16(%rcx) movq %rsi, 24(%rcx) movq %rsi, 32(%rcx) movq %rsi, 40(%rcx) movq %rsi, 48(%rcx) movq %rsi, 56(%rcx) movq %rsi, 64(%rcx) movq %rsi, 72(%rcx) movq %rsi, 80(%rcx) movq %rsi, 88(%rcx) movq %rsi, 96(%rcx) movq %rsi, 104(%rcx) movq %rsi, 112(%rcx) movq %rsi, 120(%rcx) movq %rsi, 128(%rcx) movq %rsi, 136(%rcx) movq %rsi, 144(%rcx) movq %rsi, 152(%rcx) movq %rsi, 160(%rcx) movq %rsi, 168(%rcx) movq %rsi, 176(%rcx) movq %rsi, 184(%rcx) movq %rsi, 192(%rcx) movb (%rdx), %sil xorb %sil, (%rcx) movb 1(%rdx), %sil xorb %sil, 1(%rcx) movb 2(%rdx), %sil xorb %sil, 2(%rcx) movb 3(%rdx), %sil xorb %sil, 3(%rcx) movb 4(%rdx), %sil xorb %sil, 4(%rcx) movb 5(%rdx), %sil xorb %sil, 5(%rcx) movb 6(%rdx), %sil xorb %sil, 6(%rcx) movb 7(%rdx), %sil xorb %sil, 7(%rcx) movb 8(%rdx), %sil xorb %sil, 8(%rcx) movb 9(%rdx), %sil xorb %sil, 9(%rcx) movb 10(%rdx), %sil xorb %sil, 10(%rcx) movb 11(%rdx), %sil xorb %sil, 11(%rcx) movb 12(%rdx), %sil xorb %sil, 12(%rcx) movb 13(%rdx), %sil xorb %sil, 13(%rcx) movb 14(%rdx), %sil xorb %sil, 14(%rcx) movb 15(%rdx), %sil xorb %sil, 15(%rcx) movb 16(%rdx), %sil xorb %sil, 16(%rcx) movb 17(%rdx), %sil xorb %sil, 17(%rcx) movb 18(%rdx), %sil xorb %sil, 18(%rcx) movb 19(%rdx), %sil xorb %sil, 19(%rcx) movb 20(%rdx), %sil xorb %sil, 20(%rcx) movb 21(%rdx), %sil xorb %sil, 21(%rcx) movb 22(%rdx), %sil xorb %sil, 22(%rcx) movb 23(%rdx), %sil xorb %sil, 23(%rcx) movb 24(%rdx), %sil xorb %sil, 24(%rcx) movb 25(%rdx), %sil xorb %sil, 25(%rcx) movb 26(%rdx), %sil xorb %sil, 26(%rcx) movb 27(%rdx), %sil xorb %sil, 27(%rcx) movb 28(%rdx), %sil xorb %sil, 28(%rcx) movb 29(%rdx), %sil xorb %sil, 29(%rcx) movb 30(%rdx), %sil xorb %sil, 30(%rcx) movb 31(%rdx), %sil xorb %sil, 31(%rcx) movb 32(%rdx), %sil xorb %sil, 32(%rcx) movb 33(%rdx), %dl xorb %dl, 33(%rcx) xorb $31, 34(%rcx) xorb $-128, 167(%rcx) ret L_sha3_512_32$1: movq %rcx, 8(%rsp) leaq 16(%rsp), %rcx xorq %rdx, %rdx movq %rdx, (%rcx) movq %rdx, 8(%rcx) movq %rdx, 16(%rcx) movq %rdx, 24(%rcx) movq %rdx, 32(%rcx) movq %rdx, 40(%rcx) movq %rdx, 48(%rcx) movq %rdx, 56(%rcx) movq %rdx, 64(%rcx) movq %rdx, 72(%rcx) movq %rdx, 80(%rcx) movq %rdx, 88(%rcx) movq %rdx, 96(%rcx) movq %rdx, 104(%rcx) movq %rdx, 112(%rcx) movq %rdx, 120(%rcx) movq %rdx, 128(%rcx) movq %rdx, 136(%rcx) movq %rdx, 144(%rcx) movq %rdx, 152(%rcx) movq %rdx, 160(%rcx) movq %rdx, 168(%rcx) movq %rdx, 176(%rcx) movq %rdx, 184(%rcx) movq %rdx, 192(%rcx) movb (%rax), %dl xorb %dl, (%rcx) movb 1(%rax), %dl xorb %dl, 1(%rcx) movb 2(%rax), %dl xorb %dl, 2(%rcx) movb 3(%rax), %dl xorb %dl, 3(%rcx) movb 4(%rax), %dl xorb %dl, 4(%rcx) movb 5(%rax), %dl xorb %dl, 5(%rcx) movb 6(%rax), %dl xorb %dl, 6(%rcx) movb 7(%rax), %dl xorb %dl, 7(%rcx) movb 8(%rax), %dl xorb %dl, 8(%rcx) movb 9(%rax), %dl xorb %dl, 9(%rcx) movb 10(%rax), %dl xorb %dl, 10(%rcx) movb 11(%rax), %dl xorb %dl, 11(%rcx) movb 12(%rax), %dl xorb %dl, 12(%rcx) movb 13(%rax), %dl xorb %dl, 13(%rcx) movb 14(%rax), %dl xorb %dl, 14(%rcx) movb 15(%rax), %dl xorb %dl, 15(%rcx) movb 16(%rax), %dl xorb %dl, 16(%rcx) movb 17(%rax), %dl xorb %dl, 17(%rcx) movb 18(%rax), %dl xorb %dl, 18(%rcx) movb 19(%rax), %dl xorb %dl, 19(%rcx) movb 20(%rax), %dl xorb %dl, 20(%rcx) movb 21(%rax), %dl xorb %dl, 21(%rcx) movb 22(%rax), %dl xorb %dl, 22(%rcx) movb 23(%rax), %dl xorb %dl, 23(%rcx) movb 24(%rax), %dl xorb %dl, 24(%rcx) movb 25(%rax), %dl xorb %dl, 25(%rcx) movb 26(%rax), %dl xorb %dl, 26(%rcx) movb 27(%rax), %dl xorb %dl, 27(%rcx) movb 28(%rax), %dl xorb %dl, 28(%rcx) movb 29(%rax), %dl xorb %dl, 29(%rcx) movb 30(%rax), %dl xorb %dl, 30(%rcx) movb 31(%rax), %al xorb %al, 31(%rcx) xorb $6, 32(%rcx) xorb $-128, 71(%rcx) leaq -224(%rsp), %rsp call L_keccakf1600_ref1$1 L_sha3_512_32$2: leaq 224(%rsp), %rsp movq 8(%rsp), %rax movb (%rcx), %dl movb %dl, (%rax) movb 1(%rcx), %dl movb %dl, 1(%rax) movb 2(%rcx), %dl movb %dl, 2(%rax) movb 3(%rcx), %dl movb %dl, 3(%rax) movb 4(%rcx), %dl movb %dl, 4(%rax) movb 5(%rcx), %dl movb %dl, 5(%rax) movb 6(%rcx), %dl movb %dl, 6(%rax) movb 7(%rcx), %dl movb %dl, 7(%rax) movb 8(%rcx), %dl movb %dl, 8(%rax) movb 9(%rcx), %dl movb %dl, 9(%rax) movb 10(%rcx), %dl movb %dl, 10(%rax) movb 11(%rcx), %dl movb %dl, 11(%rax) movb 12(%rcx), %dl movb %dl, 12(%rax) movb 13(%rcx), %dl movb %dl, 13(%rax) movb 14(%rcx), %dl movb %dl, 14(%rax) movb 15(%rcx), %dl movb %dl, 15(%rax) movb 16(%rcx), %dl movb %dl, 16(%rax) movb 17(%rcx), %dl movb %dl, 17(%rax) movb 18(%rcx), %dl movb %dl, 18(%rax) movb 19(%rcx), %dl movb %dl, 19(%rax) movb 20(%rcx), %dl movb %dl, 20(%rax) movb 21(%rcx), %dl movb %dl, 21(%rax) movb 22(%rcx), %dl movb %dl, 22(%rax) movb 23(%rcx), %dl movb %dl, 23(%rax) movb 24(%rcx), %dl movb %dl, 24(%rax) movb 25(%rcx), %dl movb %dl, 25(%rax) movb 26(%rcx), %dl movb %dl, 26(%rax) movb 27(%rcx), %dl movb %dl, 27(%rax) movb 28(%rcx), %dl movb %dl, 28(%rax) movb 29(%rcx), %dl movb %dl, 29(%rax) movb 30(%rcx), %dl movb %dl, 30(%rax) movb 31(%rcx), %dl movb %dl, 31(%rax) movb 32(%rcx), %dl movb %dl, 32(%rax) movb 33(%rcx), %dl movb %dl, 33(%rax) movb 34(%rcx), %dl movb %dl, 34(%rax) movb 35(%rcx), %dl movb %dl, 35(%rax) movb 36(%rcx), %dl movb %dl, 36(%rax) movb 37(%rcx), %dl movb %dl, 37(%rax) movb 38(%rcx), %dl movb %dl, 38(%rax) movb 39(%rcx), %dl movb %dl, 39(%rax) movb 40(%rcx), %dl movb %dl, 40(%rax) movb 41(%rcx), %dl movb %dl, 41(%rax) movb 42(%rcx), %dl movb %dl, 42(%rax) movb 43(%rcx), %dl movb %dl, 43(%rax) movb 44(%rcx), %dl movb %dl, 44(%rax) movb 45(%rcx), %dl movb %dl, 45(%rax) movb 46(%rcx), %dl movb %dl, 46(%rax) movb 47(%rcx), %dl movb %dl, 47(%rax) movb 48(%rcx), %dl movb %dl, 48(%rax) movb 49(%rcx), %dl movb %dl, 49(%rax) movb 50(%rcx), %dl movb %dl, 50(%rax) movb 51(%rcx), %dl movb %dl, 51(%rax) movb 52(%rcx), %dl movb %dl, 52(%rax) movb 53(%rcx), %dl movb %dl, 53(%rax) movb 54(%rcx), %dl movb %dl, 54(%rax) movb 55(%rcx), %dl movb %dl, 55(%rax) movb 56(%rcx), %dl movb %dl, 56(%rax) movb 57(%rcx), %dl movb %dl, 57(%rax) movb 58(%rcx), %dl movb %dl, 58(%rax) movb 59(%rcx), %dl movb %dl, 59(%rax) movb 60(%rcx), %dl movb %dl, 60(%rax) movb 61(%rcx), %dl movb %dl, 61(%rax) movb 62(%rcx), %dl movb %dl, 62(%rax) movb 63(%rcx), %cl movb %cl, 63(%rax) ret L_shake256_128_33$1: movq %rcx, 8(%rsp) leaq 16(%rsp), %rcx xorq %rsi, %rsi movq %rsi, (%rcx) movq %rsi, 8(%rcx) movq %rsi, 16(%rcx) movq %rsi, 24(%rcx) movq %rsi, 32(%rcx) movq %rsi, 40(%rcx) movq %rsi, 48(%rcx) movq %rsi, 56(%rcx) movq %rsi, 64(%rcx) movq %rsi, 72(%rcx) movq %rsi, 80(%rcx) movq %rsi, 88(%rcx) movq %rsi, 96(%rcx) movq %rsi, 104(%rcx) movq %rsi, 112(%rcx) movq %rsi, 120(%rcx) movq %rsi, 128(%rcx) movq %rsi, 136(%rcx) movq %rsi, 144(%rcx) movq %rsi, 152(%rcx) movq %rsi, 160(%rcx) movq %rsi, 168(%rcx) movq %rsi, 176(%rcx) movq %rsi, 184(%rcx) movq %rsi, 192(%rcx) movb (%rdx), %sil xorb %sil, (%rcx) movb 1(%rdx), %sil xorb %sil, 1(%rcx) movb 2(%rdx), %sil xorb %sil, 2(%rcx) movb 3(%rdx), %sil xorb %sil, 3(%rcx) movb 4(%rdx), %sil xorb %sil, 4(%rcx) movb 5(%rdx), %sil xorb %sil, 5(%rcx) movb 6(%rdx), %sil xorb %sil, 6(%rcx) movb 7(%rdx), %sil xorb %sil, 7(%rcx) movb 8(%rdx), %sil xorb %sil, 8(%rcx) movb 9(%rdx), %sil xorb %sil, 9(%rcx) movb 10(%rdx), %sil xorb %sil, 10(%rcx) movb 11(%rdx), %sil xorb %sil, 11(%rcx) movb 12(%rdx), %sil xorb %sil, 12(%rcx) movb 13(%rdx), %sil xorb %sil, 13(%rcx) movb 14(%rdx), %sil xorb %sil, 14(%rcx) movb 15(%rdx), %sil xorb %sil, 15(%rcx) movb 16(%rdx), %sil xorb %sil, 16(%rcx) movb 17(%rdx), %sil xorb %sil, 17(%rcx) movb 18(%rdx), %sil xorb %sil, 18(%rcx) movb 19(%rdx), %sil xorb %sil, 19(%rcx) movb 20(%rdx), %sil xorb %sil, 20(%rcx) movb 21(%rdx), %sil xorb %sil, 21(%rcx) movb 22(%rdx), %sil xorb %sil, 22(%rcx) movb 23(%rdx), %sil xorb %sil, 23(%rcx) movb 24(%rdx), %sil xorb %sil, 24(%rcx) movb 25(%rdx), %sil xorb %sil, 25(%rcx) movb 26(%rdx), %sil xorb %sil, 26(%rcx) movb 27(%rdx), %sil xorb %sil, 27(%rcx) movb 28(%rdx), %sil xorb %sil, 28(%rcx) movb 29(%rdx), %sil xorb %sil, 29(%rcx) movb 30(%rdx), %sil xorb %sil, 30(%rcx) movb 31(%rdx), %sil xorb %sil, 31(%rcx) movb 32(%rdx), %dl xorb %dl, 32(%rcx) xorb $31, 33(%rcx) xorb $-128, 135(%rcx) leaq -224(%rsp), %rsp call L_keccakf1600_ref1$1 L_shake256_128_33$2: leaq 224(%rsp), %rsp movq 8(%rsp), %rdx movb (%rcx), %sil movb %sil, (%rdx) movb 1(%rcx), %sil movb %sil, 1(%rdx) movb 2(%rcx), %sil movb %sil, 2(%rdx) movb 3(%rcx), %sil movb %sil, 3(%rdx) movb 4(%rcx), %sil movb %sil, 4(%rdx) movb 5(%rcx), %sil movb %sil, 5(%rdx) movb 6(%rcx), %sil movb %sil, 6(%rdx) movb 7(%rcx), %sil movb %sil, 7(%rdx) movb 8(%rcx), %sil movb %sil, 8(%rdx) movb 9(%rcx), %sil movb %sil, 9(%rdx) movb 10(%rcx), %sil movb %sil, 10(%rdx) movb 11(%rcx), %sil movb %sil, 11(%rdx) movb 12(%rcx), %sil movb %sil, 12(%rdx) movb 13(%rcx), %sil movb %sil, 13(%rdx) movb 14(%rcx), %sil movb %sil, 14(%rdx) movb 15(%rcx), %sil movb %sil, 15(%rdx) movb 16(%rcx), %sil movb %sil, 16(%rdx) movb 17(%rcx), %sil movb %sil, 17(%rdx) movb 18(%rcx), %sil movb %sil, 18(%rdx) movb 19(%rcx), %sil movb %sil, 19(%rdx) movb 20(%rcx), %sil movb %sil, 20(%rdx) movb 21(%rcx), %sil movb %sil, 21(%rdx) movb 22(%rcx), %sil movb %sil, 22(%rdx) movb 23(%rcx), %sil movb %sil, 23(%rdx) movb 24(%rcx), %sil movb %sil, 24(%rdx) movb 25(%rcx), %sil movb %sil, 25(%rdx) movb 26(%rcx), %sil movb %sil, 26(%rdx) movb 27(%rcx), %sil movb %sil, 27(%rdx) movb 28(%rcx), %sil movb %sil, 28(%rdx) movb 29(%rcx), %sil movb %sil, 29(%rdx) movb 30(%rcx), %sil movb %sil, 30(%rdx) movb 31(%rcx), %sil movb %sil, 31(%rdx) movb 32(%rcx), %sil movb %sil, 32(%rdx) movb 33(%rcx), %sil movb %sil, 33(%rdx) movb 34(%rcx), %sil movb %sil, 34(%rdx) movb 35(%rcx), %sil movb %sil, 35(%rdx) movb 36(%rcx), %sil movb %sil, 36(%rdx) movb 37(%rcx), %sil movb %sil, 37(%rdx) movb 38(%rcx), %sil movb %sil, 38(%rdx) movb 39(%rcx), %sil movb %sil, 39(%rdx) movb 40(%rcx), %sil movb %sil, 40(%rdx) movb 41(%rcx), %sil movb %sil, 41(%rdx) movb 42(%rcx), %sil movb %sil, 42(%rdx) movb 43(%rcx), %sil movb %sil, 43(%rdx) movb 44(%rcx), %sil movb %sil, 44(%rdx) movb 45(%rcx), %sil movb %sil, 45(%rdx) movb 46(%rcx), %sil movb %sil, 46(%rdx) movb 47(%rcx), %sil movb %sil, 47(%rdx) movb 48(%rcx), %sil movb %sil, 48(%rdx) movb 49(%rcx), %sil movb %sil, 49(%rdx) movb 50(%rcx), %sil movb %sil, 50(%rdx) movb 51(%rcx), %sil movb %sil, 51(%rdx) movb 52(%rcx), %sil movb %sil, 52(%rdx) movb 53(%rcx), %sil movb %sil, 53(%rdx) movb 54(%rcx), %sil movb %sil, 54(%rdx) movb 55(%rcx), %sil movb %sil, 55(%rdx) movb 56(%rcx), %sil movb %sil, 56(%rdx) movb 57(%rcx), %sil movb %sil, 57(%rdx) movb 58(%rcx), %sil movb %sil, 58(%rdx) movb 59(%rcx), %sil movb %sil, 59(%rdx) movb 60(%rcx), %sil movb %sil, 60(%rdx) movb 61(%rcx), %sil movb %sil, 61(%rdx) movb 62(%rcx), %sil movb %sil, 62(%rdx) movb 63(%rcx), %sil movb %sil, 63(%rdx) movb 64(%rcx), %sil movb %sil, 64(%rdx) movb 65(%rcx), %sil movb %sil, 65(%rdx) movb 66(%rcx), %sil movb %sil, 66(%rdx) movb 67(%rcx), %sil movb %sil, 67(%rdx) movb 68(%rcx), %sil movb %sil, 68(%rdx) movb 69(%rcx), %sil movb %sil, 69(%rdx) movb 70(%rcx), %sil movb %sil, 70(%rdx) movb 71(%rcx), %sil movb %sil, 71(%rdx) movb 72(%rcx), %sil movb %sil, 72(%rdx) movb 73(%rcx), %sil movb %sil, 73(%rdx) movb 74(%rcx), %sil movb %sil, 74(%rdx) movb 75(%rcx), %sil movb %sil, 75(%rdx) movb 76(%rcx), %sil movb %sil, 76(%rdx) movb 77(%rcx), %sil movb %sil, 77(%rdx) movb 78(%rcx), %sil movb %sil, 78(%rdx) movb 79(%rcx), %sil movb %sil, 79(%rdx) movb 80(%rcx), %sil movb %sil, 80(%rdx) movb 81(%rcx), %sil movb %sil, 81(%rdx) movb 82(%rcx), %sil movb %sil, 82(%rdx) movb 83(%rcx), %sil movb %sil, 83(%rdx) movb 84(%rcx), %sil movb %sil, 84(%rdx) movb 85(%rcx), %sil movb %sil, 85(%rdx) movb 86(%rcx), %sil movb %sil, 86(%rdx) movb 87(%rcx), %sil movb %sil, 87(%rdx) movb 88(%rcx), %sil movb %sil, 88(%rdx) movb 89(%rcx), %sil movb %sil, 89(%rdx) movb 90(%rcx), %sil movb %sil, 90(%rdx) movb 91(%rcx), %sil movb %sil, 91(%rdx) movb 92(%rcx), %sil movb %sil, 92(%rdx) movb 93(%rcx), %sil movb %sil, 93(%rdx) movb 94(%rcx), %sil movb %sil, 94(%rdx) movb 95(%rcx), %sil movb %sil, 95(%rdx) movb 96(%rcx), %sil movb %sil, 96(%rdx) movb 97(%rcx), %sil movb %sil, 97(%rdx) movb 98(%rcx), %sil movb %sil, 98(%rdx) movb 99(%rcx), %sil movb %sil, 99(%rdx) movb 100(%rcx), %sil movb %sil, 100(%rdx) movb 101(%rcx), %sil movb %sil, 101(%rdx) movb 102(%rcx), %sil movb %sil, 102(%rdx) movb 103(%rcx), %sil movb %sil, 103(%rdx) movb 104(%rcx), %sil movb %sil, 104(%rdx) movb 105(%rcx), %sil movb %sil, 105(%rdx) movb 106(%rcx), %sil movb %sil, 106(%rdx) movb 107(%rcx), %sil movb %sil, 107(%rdx) movb 108(%rcx), %sil movb %sil, 108(%rdx) movb 109(%rcx), %sil movb %sil, 109(%rdx) movb 110(%rcx), %sil movb %sil, 110(%rdx) movb 111(%rcx), %sil movb %sil, 111(%rdx) movb 112(%rcx), %sil movb %sil, 112(%rdx) movb 113(%rcx), %sil movb %sil, 113(%rdx) movb 114(%rcx), %sil movb %sil, 114(%rdx) movb 115(%rcx), %sil movb %sil, 115(%rdx) movb 116(%rcx), %sil movb %sil, 116(%rdx) movb 117(%rcx), %sil movb %sil, 117(%rdx) movb 118(%rcx), %sil movb %sil, 118(%rdx) movb 119(%rcx), %sil movb %sil, 119(%rdx) movb 120(%rcx), %sil movb %sil, 120(%rdx) movb 121(%rcx), %sil movb %sil, 121(%rdx) movb 122(%rcx), %sil movb %sil, 122(%rdx) movb 123(%rcx), %sil movb %sil, 123(%rdx) movb 124(%rcx), %sil movb %sil, 124(%rdx) movb 125(%rcx), %sil movb %sil, 125(%rdx) movb 126(%rcx), %sil movb %sil, 126(%rdx) movb 127(%rcx), %cl movb %cl, 127(%rdx) ret L_keccakf1600_ref1$1: leaq glob_data + 0(%rip), %rdx movq %rdx, 8(%rsp) leaq 32(%rsp), %rdx movq $0, %r11 jmp L_keccakf1600_ref1$2 L_keccakf1600_ref1$3: movq %r11, 16(%rsp) movq 8(%rsp), %rsi movq (%rsi,%r11,8), %rsi movq %rsi, 24(%rsp) movq (%rcx), %r10 movq 8(%rcx), %r9 movq 16(%rcx), %rbx movq 24(%rcx), %rbp movq 32(%rcx), %r12 xorq 40(%rcx), %r10 xorq 48(%rcx), %r9 xorq 56(%rcx), %rbx xorq 64(%rcx), %rbp xorq 72(%rcx), %r12 xorq 80(%rcx), %r10 xorq 88(%rcx), %r9 xorq 96(%rcx), %rbx xorq 104(%rcx), %rbp xorq 112(%rcx), %r12 xorq 120(%rcx), %r10 xorq 128(%rcx), %r9 xorq 136(%rcx), %rbx xorq 144(%rcx), %rbp xorq 152(%rcx), %r12 xorq 160(%rcx), %r10 xorq 168(%rcx), %r9 xorq 176(%rcx), %rbx xorq 184(%rcx), %rbp xorq 192(%rcx), %r12 movq %r9, %rsi rolq $1, %rsi xorq %r12, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r10, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r9, %r8 movq %r12, %r9 rolq $1, %r9 xorq %rbx, %r9 rolq $1, %r10 xorq %rbp, %r10 movq (%rcx), %rbx xorq %rsi, %rbx movq 48(%rcx), %rbp xorq %rdi, %rbp rolq $44, %rbp movq 96(%rcx), %r12 xorq %r8, %r12 rolq $43, %r12 movq 144(%rcx), %r13 xorq %r9, %r13 rolq $21, %r13 movq 192(%rcx), %r14 xorq %r10, %r14 rolq $14, %r14 movq %rbp, %r15 notq %r15 andq %r12, %r15 xorq %rbx, %r15 xorq 24(%rsp), %r15 movq %r15, (%rdx) movq %r12, %r15 notq %r15 andq %r13, %r15 xorq %rbp, %r15 movq %r15, 8(%rdx) movq %r13, %r15 notq %r15 andq %r14, %r15 xorq %r12, %r15 movq %r15, 16(%rdx) movq %r14, %r12 notq %r12 andq %rbx, %r12 xorq %r13, %r12 movq %r12, 24(%rdx) notq %rbx andq %rbp, %rbx xorq %r14, %rbx movq %rbx, 32(%rdx) movq 24(%rcx), %rbx xorq %r9, %rbx rolq $28, %rbx movq 72(%rcx), %rbp xorq %r10, %rbp rolq $20, %rbp movq 80(%rcx), %r12 xorq %rsi, %r12 rolq $3, %r12 movq 128(%rcx), %r13 xorq %rdi, %r13 rolq $45, %r13 movq 176(%rcx), %r14 xorq %r8, %r14 rolq $61, %r14 movq %rbp, %r15 notq %r15 andq %r12, %r15 xorq %rbx, %r15 movq %r15, 40(%rdx) movq %r12, %r15 notq %r15 andq %r13, %r15 xorq %rbp, %r15 movq %r15, 48(%rdx) movq %r13, %r15 notq %r15 andq %r14, %r15 xorq %r12, %r15 movq %r15, 56(%rdx) movq %r14, %r12 notq %r12 andq %rbx, %r12 xorq %r13, %r12 movq %r12, 64(%rdx) notq %rbx andq %rbp, %rbx xorq %r14, %rbx movq %rbx, 72(%rdx) movq 8(%rcx), %rbx xorq %rdi, %rbx rolq $1, %rbx movq 56(%rcx), %rbp xorq %r8, %rbp rolq $6, %rbp movq 104(%rcx), %r12 xorq %r9, %r12 rolq $25, %r12 movq 152(%rcx), %r13 xorq %r10, %r13 rolq $8, %r13 movq 160(%rcx), %r14 xorq %rsi, %r14 rolq $18, %r14 movq %rbp, %r15 notq %r15 andq %r12, %r15 xorq %rbx, %r15 movq %r15, 80(%rdx) movq %r12, %r15 notq %r15 andq %r13, %r15 xorq %rbp, %r15 movq %r15, 88(%rdx) movq %r13, %r15 notq %r15 andq %r14, %r15 xorq %r12, %r15 movq %r15, 96(%rdx) movq %r14, %r12 notq %r12 andq %rbx, %r12 xorq %r13, %r12 movq %r12, 104(%rdx) notq %rbx andq %rbp, %rbx xorq %r14, %rbx movq %rbx, 112(%rdx) movq 32(%rcx), %rbx xorq %r10, %rbx rolq $27, %rbx movq 40(%rcx), %rbp xorq %rsi, %rbp rolq $36, %rbp movq 88(%rcx), %r12 xorq %rdi, %r12 rolq $10, %r12 movq 136(%rcx), %r13 xorq %r8, %r13 rolq $15, %r13 movq 184(%rcx), %r14 xorq %r9, %r14 rolq $56, %r14 movq %rbp, %r15 notq %r15 andq %r12, %r15 xorq %rbx, %r15 movq %r15, 120(%rdx) movq %r12, %r15 notq %r15 andq %r13, %r15 xorq %rbp, %r15 movq %r15, 128(%rdx) movq %r13, %r15 notq %r15 andq %r14, %r15 xorq %r12, %r15 movq %r15, 136(%rdx) movq %r14, %r12 notq %r12 andq %rbx, %r12 xorq %r13, %r12 movq %r12, 144(%rdx) notq %rbx andq %rbp, %rbx xorq %r14, %rbx movq %rbx, 152(%rdx) movq 16(%rcx), %rbx xorq %r8, %rbx rolq $62, %rbx movq 64(%rcx), %r8 xorq %r9, %r8 rolq $55, %r8 movq 112(%rcx), %r9 xorq %r10, %r9 rolq $39, %r9 movq 120(%rcx), %r10 xorq %rsi, %r10 rolq $41, %r10 movq 168(%rcx), %rsi xorq %rdi, %rsi rolq $2, %rsi movq %r8, %rdi notq %rdi andq %r9, %rdi xorq %rbx, %rdi movq %rdi, 160(%rdx) movq %r9, %rdi notq %rdi andq %r10, %rdi xorq %r8, %rdi movq %rdi, 168(%rdx) movq %r10, %rdi notq %rdi andq %rsi, %rdi xorq %r9, %rdi movq %rdi, 176(%rdx) movq %rsi, %rdi notq %rdi andq %rbx, %rdi xorq %r10, %rdi movq %rdi, 184(%rdx) notq %rbx andq %r8, %rbx xorq %rsi, %rbx movq %rbx, 192(%rdx) movq 8(%rsp), %rsi movq 8(%rsi,%r11,8), %rsi movq %rsi, 24(%rsp) movq (%rdx), %r10 movq 8(%rdx), %r9 movq 16(%rdx), %r11 movq 24(%rdx), %rbx movq 32(%rdx), %rbp xorq 40(%rdx), %r10 xorq 48(%rdx), %r9 xorq 56(%rdx), %r11 xorq 64(%rdx), %rbx xorq 72(%rdx), %rbp xorq 80(%rdx), %r10 xorq 88(%rdx), %r9 xorq 96(%rdx), %r11 xorq 104(%rdx), %rbx xorq 112(%rdx), %rbp xorq 120(%rdx), %r10 xorq 128(%rdx), %r9 xorq 136(%rdx), %r11 xorq 144(%rdx), %rbx xorq 152(%rdx), %rbp xorq 160(%rdx), %r10 xorq 168(%rdx), %r9 xorq 176(%rdx), %r11 xorq 184(%rdx), %rbx xorq 192(%rdx), %rbp movq %r9, %rsi rolq $1, %rsi xorq %rbp, %rsi movq %r11, %rdi rolq $1, %rdi xorq %r10, %rdi movq %rbx, %r8 rolq $1, %r8 xorq %r9, %r8 movq %rbp, %r9 rolq $1, %r9 xorq %r11, %r9 rolq $1, %r10 xorq %rbx, %r10 movq (%rdx), %r11 xorq %rsi, %r11 movq 48(%rdx), %rbx xorq %rdi, %rbx rolq $44, %rbx movq 96(%rdx), %rbp xorq %r8, %rbp rolq $43, %rbp movq 144(%rdx), %r12 xorq %r9, %r12 rolq $21, %r12 movq 192(%rdx), %r13 xorq %r10, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq 24(%rsp), %r14 movq %r14, (%rcx) movq %rbp, %r14 notq %r14 andq %r12, %r14 xorq %rbx, %r14 movq %r14, 8(%rcx) movq %r12, %r14 notq %r14 andq %r13, %r14 xorq %rbp, %r14 movq %r14, 16(%rcx) movq %r13, %rbp notq %rbp andq %r11, %rbp xorq %r12, %rbp movq %rbp, 24(%rcx) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 32(%rcx) movq 24(%rdx), %r11 xorq %r9, %r11 rolq $28, %r11 movq 72(%rdx), %rbx xorq %r10, %rbx rolq $20, %rbx movq 80(%rdx), %rbp xorq %rsi, %rbp rolq $3, %rbp movq 128(%rdx), %r12 xorq %rdi, %r12 rolq $45, %r12 movq 176(%rdx), %r13 xorq %r8, %r13 rolq $61, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 movq %r14, 40(%rcx) movq %rbp, %r14 notq %r14 andq %r12, %r14 xorq %rbx, %r14 movq %r14, 48(%rcx) movq %r12, %r14 notq %r14 andq %r13, %r14 xorq %rbp, %r14 movq %r14, 56(%rcx) movq %r13, %rbp notq %rbp andq %r11, %rbp xorq %r12, %rbp movq %rbp, 64(%rcx) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 72(%rcx) movq 8(%rdx), %r11 xorq %rdi, %r11 rolq $1, %r11 movq 56(%rdx), %rbx xorq %r8, %rbx rolq $6, %rbx movq 104(%rdx), %rbp xorq %r9, %rbp rolq $25, %rbp movq 152(%rdx), %r12 xorq %r10, %r12 rolq $8, %r12 movq 160(%rdx), %r13 xorq %rsi, %r13 rolq $18, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 movq %r14, 80(%rcx) movq %rbp, %r14 notq %r14 andq %r12, %r14 xorq %rbx, %r14 movq %r14, 88(%rcx) movq %r12, %r14 notq %r14 andq %r13, %r14 xorq %rbp, %r14 movq %r14, 96(%rcx) movq %r13, %rbp notq %rbp andq %r11, %rbp xorq %r12, %rbp movq %rbp, 104(%rcx) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 112(%rcx) movq 32(%rdx), %r11 xorq %r10, %r11 rolq $27, %r11 movq 40(%rdx), %rbx xorq %rsi, %rbx rolq $36, %rbx movq 88(%rdx), %rbp xorq %rdi, %rbp rolq $10, %rbp movq 136(%rdx), %r12 xorq %r8, %r12 rolq $15, %r12 movq 184(%rdx), %r13 xorq %r9, %r13 rolq $56, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 movq %r14, 120(%rcx) movq %rbp, %r14 notq %r14 andq %r12, %r14 xorq %rbx, %r14 movq %r14, 128(%rcx) movq %r12, %r14 notq %r14 andq %r13, %r14 xorq %rbp, %r14 movq %r14, 136(%rcx) movq %r13, %rbp notq %rbp andq %r11, %rbp xorq %r12, %rbp movq %rbp, 144(%rcx) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 152(%rcx) movq 16(%rdx), %r11 xorq %r8, %r11 rolq $62, %r11 movq 64(%rdx), %r8 xorq %r9, %r8 rolq $55, %r8 movq 112(%rdx), %r9 xorq %r10, %r9 rolq $39, %r9 movq 120(%rdx), %r10 xorq %rsi, %r10 rolq $41, %r10 movq 168(%rdx), %rsi xorq %rdi, %rsi rolq $2, %rsi movq %r8, %rdi notq %rdi andq %r9, %rdi xorq %r11, %rdi movq %rdi, 160(%rcx) movq %r9, %rdi notq %rdi andq %r10, %rdi xorq %r8, %rdi movq %rdi, 168(%rcx) movq %r10, %rdi notq %rdi andq %rsi, %rdi xorq %r9, %rdi movq %rdi, 176(%rcx) movq %rsi, %rdi notq %rdi andq %r11, %rdi xorq %r10, %rdi movq %rdi, 184(%rcx) notq %r11 andq %r8, %r11 xorq %rsi, %r11 movq %r11, 192(%rcx) movq 16(%rsp), %r11 addq $2, %r11 L_keccakf1600_ref1$2: cmpq $23, %r11 jb L_keccakf1600_ref1$3 ret .data .p2align 5 _glob_data: glob_data: .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -91 .byte 6 .byte 15 .byte 7 .byte -76 .byte 5 .byte 67 .byte 9 .byte 34 .byte 9 .byte 29 .byte 9 .byte 52 .byte 1 .byte 108 .byte 0 .byte 35 .byte 11 .byte 102 .byte 3 .byte 86 .byte 3 .byte -26 .byte 5 .byte -25 .byte 9 .byte -2 .byte 4 .byte -6 .byte 5 .byte -95 .byte 4 .byte 123 .byte 6 .byte -93 .byte 4 .byte 37 .byte 12 .byte 106 .byte 3 .byte 55 .byte 5 .byte 63 .byte 8 .byte -120 .byte 0 .byte -65 .byte 4 .byte -127 .byte 11 .byte -71 .byte 5 .byte 5 .byte 5 .byte -41 .byte 7 .byte -97 .byte 10 .byte -90 .byte 10 .byte -72 .byte 8 .byte -48 .byte 9 .byte 75 .byte 0 .byte -100 .byte 0 .byte -72 .byte 11 .byte 95 .byte 11 .byte -92 .byte 11 .byte 104 .byte 3 .byte 125 .byte 10 .byte 54 .byte 6 .byte -94 .byte 8 .byte 90 .byte 2 .byte 54 .byte 7 .byte 9 .byte 3 .byte -109 .byte 0 .byte 122 .byte 8 .byte -9 .byte 9 .byte -10 .byte 0 .byte -116 .byte 6 .byte -37 .byte 6 .byte -52 .byte 1 .byte 35 .byte 1 .byte -21 .byte 0 .byte 80 .byte 12 .byte -74 .byte 10 .byte 91 .byte 11 .byte -104 .byte 12 .byte -13 .byte 6 .byte -102 .byte 9 .byte -29 .byte 4 .byte -74 .byte 9 .byte -42 .byte 10 .byte 83 .byte 11 .byte 79 .byte 4 .byte -5 .byte 4 .byte 92 .byte 10 .byte 41 .byte 4 .byte 65 .byte 11 .byte -43 .byte 2 .byte -28 .byte 5 .byte 64 .byte 9 .byte -114 .byte 1 .byte -73 .byte 3 .byte -9 .byte 0 .byte -115 .byte 5 .byte -106 .byte 12 .byte -61 .byte 9 .byte 15 .byte 1 .byte 90 .byte 0 .byte 85 .byte 3 .byte 68 .byte 7 .byte -125 .byte 12 .byte -118 .byte 4 .byte 82 .byte 6 .byte -102 .byte 2 .byte 64 .byte 1 .byte 8 .byte 0 .byte -3 .byte 10 .byte 8 .byte 6 .byte 26 .byte 1 .byte 46 .byte 7 .byte 13 .byte 5 .byte 10 .byte 9 .byte 40 .byte 2 .byte 117 .byte 10 .byte 58 .byte 8 .byte 35 .byte 6 .byte -51 .byte 0 .byte 102 .byte 11 .byte 6 .byte 6 .byte -95 .byte 10 .byte 37 .byte 10 .byte 8 .byte 9 .byte -87 .byte 2 .byte -126 .byte 0 .byte 66 .byte 6 .byte 79 .byte 7 .byte 61 .byte 3 .byte -126 .byte 11 .byte -7 .byte 11 .byte 45 .byte 5 .byte -60 .byte 10 .byte 69 .byte 7 .byte -62 .byte 5 .byte -78 .byte 4 .byte 63 .byte 9 .byte 75 .byte 12 .byte -40 .byte 6 .byte -109 .byte 10 .byte -85 .byte 0 .byte 55 .byte 12 .byte -30 .byte 11 .byte 115 .byte 7 .byte 44 .byte 7 .byte -19 .byte 5 .byte 103 .byte 1 .byte -10 .byte 2 .byte -95 .byte 5 .byte -19 .byte 8 .byte 11 .byte 10 .byte -102 .byte 11 .byte 20 .byte 7 .byte -43 .byte 5 .byte -114 .byte 5 .byte 31 .byte 1 .byte -54 .byte 0 .byte 86 .byte 12 .byte 110 .byte 2 .byte 41 .byte 6 .byte -74 .byte 0 .byte -62 .byte 3 .byte 79 .byte 8 .byte 63 .byte 7 .byte -68 .byte 5 .byte 61 .byte 2 .byte -44 .byte 7 .byte 8 .byte 1 .byte 127 .byte 1 .byte -60 .byte 9 .byte -78 .byte 5 .byte -65 .byte 6 .byte 127 .byte 12 .byte 88 .byte 10 .byte -7 .byte 3 .byte -36 .byte 2 .byte 96 .byte 2 .byte -5 .byte 6 .byte -101 .byte 1 .byte 52 .byte 12 .byte -34 .byte 6 .byte -57 .byte 4 .byte -116 .byte 2 .byte -39 .byte 10 .byte -9 .byte 3 .byte -12 .byte 7 .byte -45 .byte 5 .byte -25 .byte 11 .byte -7 .byte 6 .byte 4 .byte 2 .byte -7 .byte 12 .byte -63 .byte 11 .byte 103 .byte 10 .byte -81 .byte 6 .byte 119 .byte 8 .byte 126 .byte 0 .byte -67 .byte 5 .byte -84 .byte 9 .byte -89 .byte 12 .byte -14 .byte 11 .byte 62 .byte 3 .byte 107 .byte 0 .byte 116 .byte 7 .byte 10 .byte 12 .byte 74 .byte 9 .byte 115 .byte 11 .byte -63 .byte 3 .byte 29 .byte 7 .byte 44 .byte 10 .byte -64 .byte 1 .byte -40 .byte 8 .byte -91 .byte 2 .byte 6 .byte 8 .byte -78 .byte 8 .byte -82 .byte 1 .byte 43 .byte 2 .byte 75 .byte 3 .byte 30 .byte 8 .byte 103 .byte 3 .byte 14 .byte 6 .byte 105 .byte 0 .byte -90 .byte 1 .byte 75 .byte 2 .byte -79 .byte 0 .byte 22 .byte 12 .byte -34 .byte 11 .byte 53 .byte 11 .byte 38 .byte 6 .byte 117 .byte 6 .byte 11 .byte 12 .byte 10 .byte 3 .byte -121 .byte 4 .byte 110 .byte 12 .byte -8 .byte 9 .byte -53 .byte 5 .byte -89 .byte 10 .byte 95 .byte 4 .byte -53 .byte 6 .byte -124 .byte 2 .byte -103 .byte 9 .byte 93 .byte 1 .byte -94 .byte 1 .byte 73 .byte 1 .byte 101 .byte 12 .byte -74 .byte 12 .byte 49 .byte 3 .byte 73 .byte 4 .byte 91 .byte 2 .byte 98 .byte 2 .byte 42 .byte 5 .byte -4 .byte 7 .byte 72 .byte 7 .byte -128 .byte 1 .byte 66 .byte 8 .byte 121 .byte 12 .byte -62 .byte 4 .byte -54 .byte 7 .byte -105 .byte 9 .byte -36 .byte 0 .byte 94 .byte 8 .byte -122 .byte 6 .byte 96 .byte 8 .byte 7 .byte 7 .byte 3 .byte 8 .byte 26 .byte 3 .byte 27 .byte 7 .byte -85 .byte 9 .byte -101 .byte 9 .byte -34 .byte 1 .byte -107 .byte 12 .byte -51 .byte 11 .byte -28 .byte 3 .byte -33 .byte 3 .byte -66 .byte 3 .byte 77 .byte 7 .byte -14 .byte 5 .byte 92 .byte 6
verdict-x509/verdict
32,893
deps/libcrux/sys/libjade/jazz/poly1305_avx2.s
.att_syntax .text .p2align 5 .globl _jade_onetimeauth_poly1305_amd64_avx2_verify .globl jade_onetimeauth_poly1305_amd64_avx2_verify .globl _jade_onetimeauth_poly1305_amd64_avx2 .globl jade_onetimeauth_poly1305_amd64_avx2 _jade_onetimeauth_poly1305_amd64_avx2_verify: jade_onetimeauth_poly1305_amd64_avx2_verify: movq %rsp, %rax leaq -696(%rsp), %rsp andq $-32, %rsp movq %rax, 688(%rsp) movq %rbx, 640(%rsp) movq %rbp, 648(%rsp) movq %r12, 656(%rsp) movq %r13, 664(%rsp) movq %r14, 672(%rsp) movq %r15, 680(%rsp) movq %rdx, %r14 movq %rcx, %r15 cmpq $256, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx2_verify$1 movq $0, %rbx movq $0, %r12 movq $0, %r8 movq (%r15), %rbp movq 8(%r15), %r13 movq $1152921487695413247, %rax andq %rax, %rbp movq $1152921487695413244, %rax andq %rax, %r13 movq %r13, %r9 shrq $2, %r9 addq %r13, %r9 addq $16, %r15 jmp Ljade_onetimeauth_poly1305_amd64_avx2_verify$9 Ljade_onetimeauth_poly1305_amd64_avx2_verify$10: addq (%rsi), %rbx adcq 8(%rsi), %r12 adcq $1, %r8 movq %r9, %r11 imulq %r8, %r11 imulq %rbp, %r8 movq %rbp, %rax mulq %rbx movq %rax, %rcx movq %rdx, %r10 movq %rbp, %rax mulq %r12 addq %rax, %r10 adcq %rdx, %r8 movq %r9, %rax mulq %r12 movq %rdx, %r12 addq %r11, %r12 movq %rax, %r11 movq %r13, %rax mulq %rbx addq %r11, %rcx adcq %rax, %r10 adcq %rdx, %r8 movq $-4, %rbx movq %r8, %rax shrq $2, %rax andq %r8, %rbx addq %rax, %rbx andq $3, %r8 addq %rcx, %rbx adcq %r10, %r12 adcq $0, %r8 addq $16, %rsi addq $-16, %r14 Ljade_onetimeauth_poly1305_amd64_avx2_verify$9: cmpq $16, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx2_verify$10 cmpq $0, %r14 jbe Ljade_onetimeauth_poly1305_amd64_avx2_verify$8 xorq %rcx, %rcx movq %r14, %rax andq $7, %rax shlq $3, %rax shrq $3, %r14 movq %r14, %rdx xorq $1, %rdx movq %r14, %r10 addq $-1, %r10 movq %rax, %r11 andq %r10, %r11 xorq %r11, %rcx xorq %r11, %rax shlq %cl, %rdx movq %rax, %rcx shlq %cl, %r14 movq %rdx, %rax movq %r14, %rcx subq $1, %rax sbbq $0, %rcx movq (%rsi), %r10 andq %rax, %r10 orq %rdx, %r10 movq 8(%rsi), %rax andq %rcx, %rax orq %r14, %rax addq %r10, %rbx adcq %rax, %r12 adcq $0, %r8 movq %r9, %rsi imulq %r8, %rsi imulq %rbp, %r8 movq %rbp, %rax mulq %rbx movq %rax, %rcx movq %rdx, %r10 movq %rbp, %rax mulq %r12 addq %rax, %r10 adcq %rdx, %r8 movq %r9, %rax mulq %r12 movq %rdx, %r12 addq %rsi, %r12 movq %rax, %rsi movq %r13, %rax mulq %rbx addq %rsi, %rcx adcq %rax, %r10 adcq %rdx, %r8 movq $-4, %rbx movq %r8, %rax shrq $2, %rax andq %r8, %rbx addq %rax, %rbx andq $3, %r8 addq %rcx, %rbx adcq %r10, %r12 adcq $0, %r8 Ljade_onetimeauth_poly1305_amd64_avx2_verify$8: movq %rbx, %rax movq %r12, %rcx addq $5, %rax adcq $0, %rcx adcq $0, %r8 shrq $2, %r8 negq %r8 xorq %rbx, %rax xorq %r12, %rcx andq %r8, %rax andq %r8, %rcx xorq %rbx, %rax xorq %r12, %rcx movq (%r15), %rdx movq 8(%r15), %rsi addq %rdx, %rax adcq %rsi, %rcx jmp Ljade_onetimeauth_poly1305_amd64_avx2_verify$2 Ljade_onetimeauth_poly1305_amd64_avx2_verify$1: movq (%r15), %rbp movq 8(%r15), %r13 movq $1152921487695413247, %rax andq %rax, %rbp movq $1152921487695413244, %rax andq %rax, %r13 movq %r13, %r12 shrq $2, %r12 addq %r13, %r12 addq $16, %r15 movq %rbp, %r8 movq %r13, %r11 movq $0, %rbx movq %r8, %rax andq $67108863, %rax movq %rax, 344(%rsp) movq %r8, %rax shrq $26, %rax andq $67108863, %rax movq %rax, 376(%rsp) movq %r8, %rax shrdq $52, %r11, %rax movq %rax, %rcx andq $67108863, %rax movq %rax, 408(%rsp) shrq $26, %rcx andq $67108863, %rcx movq %rcx, 440(%rsp) movq %r11, %rax shrdq $40, %rbx, %rax movq %rax, 472(%rsp) movq %r12, %r10 imulq %rbx, %r10 imulq %rbp, %rbx movq %rbp, %rax mulq %r8 movq %rax, %rcx movq %rdx, %r9 movq %rbp, %rax mulq %r11 addq %rax, %r9 adcq %rdx, %rbx movq %r12, %rax mulq %r11 movq %rdx, %r11 addq %r10, %r11 movq %rax, %r10 movq %r13, %rax mulq %r8 addq %r10, %rcx adcq %rax, %r9 adcq %rdx, %rbx movq $-4, %r8 movq %rbx, %rax shrq $2, %rax andq %rbx, %r8 addq %rax, %r8 andq $3, %rbx addq %rcx, %r8 adcq %r9, %r11 adcq $0, %rbx movq %r8, %rax andq $67108863, %rax movq %rax, 336(%rsp) movq %r8, %rax shrq $26, %rax andq $67108863, %rax movq %rax, 368(%rsp) movq %r8, %rax shrdq $52, %r11, %rax movq %rax, %rcx andq $67108863, %rax movq %rax, 400(%rsp) shrq $26, %rcx andq $67108863, %rcx movq %rcx, 432(%rsp) movq %r11, %rax shrdq $40, %rbx, %rax movq %rax, 464(%rsp) movq %r12, %r10 imulq %rbx, %r10 imulq %rbp, %rbx movq %rbp, %rax mulq %r8 movq %rax, %rcx movq %rdx, %r9 movq %rbp, %rax mulq %r11 addq %rax, %r9 adcq %rdx, %rbx movq %r12, %rax mulq %r11 movq %rdx, %r11 addq %r10, %r11 movq %rax, %r10 movq %r13, %rax mulq %r8 addq %r10, %rcx adcq %rax, %r9 adcq %rdx, %rbx movq $-4, %r8 movq %rbx, %rax shrq $2, %rax andq %rbx, %r8 addq %rax, %r8 andq $3, %rbx addq %rcx, %r8 adcq %r9, %r11 adcq $0, %rbx movq %r8, %rax andq $67108863, %rax movq %rax, 328(%rsp) movq %r8, %rax shrq $26, %rax andq $67108863, %rax movq %rax, 360(%rsp) movq %r8, %rax shrdq $52, %r11, %rax movq %rax, %rcx andq $67108863, %rax movq %rax, 392(%rsp) shrq $26, %rcx andq $67108863, %rcx movq %rcx, 424(%rsp) movq %r11, %rax shrdq $40, %rbx, %rax movq %rax, 456(%rsp) movq %r12, %r9 imulq %rbx, %r9 imulq %rbp, %rbx movq %rbp, %rax mulq %r8 movq %rax, %rcx movq %rdx, %r10 movq %rbp, %rax mulq %r11 addq %rax, %r10 adcq %rdx, %rbx movq %r12, %rax mulq %r11 movq %rdx, %r11 addq %r9, %r11 movq %rax, %r9 movq %r13, %rax mulq %r8 addq %r9, %rcx adcq %rax, %r10 adcq %rdx, %rbx movq $-4, %rax movq %rbx, %rdx shrq $2, %rdx andq %rbx, %rax addq %rdx, %rax andq $3, %rbx addq %rcx, %rax adcq %r10, %r11 adcq $0, %rbx movq %rax, %rcx andq $67108863, %rcx movq %rcx, 320(%rsp) movq %rax, %rcx shrq $26, %rcx andq $67108863, %rcx movq %rcx, 352(%rsp) shrdq $52, %r11, %rax movq %rax, %rcx andq $67108863, %rax movq %rax, 384(%rsp) shrq $26, %rcx andq $67108863, %rcx movq %rcx, 416(%rsp) shrdq $40, %rbx, %r11 movq %r11, 448(%rsp) vpbroadcastq glob_data + 16(%rip), %ymm0 vpmuludq 352(%rsp), %ymm0, %ymm1 vmovdqu %ymm1, 64(%rsp) vpmuludq 384(%rsp), %ymm0, %ymm1 vmovdqu %ymm1, 96(%rsp) vpmuludq 416(%rsp), %ymm0, %ymm1 vmovdqu %ymm1, 128(%rsp) vpmuludq 448(%rsp), %ymm0, %ymm0 vmovdqu %ymm0, 160(%rsp) vpbroadcastq 320(%rsp), %ymm0 vmovdqu %ymm0, 480(%rsp) vpbroadcastq 352(%rsp), %ymm0 vmovdqu %ymm0, 512(%rsp) vpbroadcastq 384(%rsp), %ymm0 vmovdqu %ymm0, 544(%rsp) vpbroadcastq 416(%rsp), %ymm0 vmovdqu %ymm0, 576(%rsp) vpbroadcastq 448(%rsp), %ymm0 vmovdqu %ymm0, 608(%rsp) vpbroadcastq 64(%rsp), %ymm0 vmovdqu %ymm0, 192(%rsp) vpbroadcastq 96(%rsp), %ymm0 vmovdqu %ymm0, 224(%rsp) vpbroadcastq 128(%rsp), %ymm0 vmovdqu %ymm0, 256(%rsp) vpbroadcastq 160(%rsp), %ymm0 vmovdqu %ymm0, 288(%rsp) vpxor %ymm0, %ymm0, %ymm0 vpxor %ymm1, %ymm1, %ymm1 vpxor %ymm6, %ymm6, %ymm6 vpxor %ymm3, %ymm3, %ymm3 vpxor %ymm4, %ymm4, %ymm4 vpbroadcastq glob_data + 8(%rip), %ymm7 vmovdqu %ymm7, (%rsp) vpbroadcastq glob_data + 0(%rip), %ymm2 vmovdqu %ymm2, 32(%rsp) vmovdqu (%rsi), %ymm2 vmovdqu 32(%rsi), %ymm5 addq $64, %rsi vperm2i128 $32, %ymm5, %ymm2, %ymm9 vperm2i128 $49, %ymm5, %ymm2, %ymm2 vpsrldq $6, %ymm9, %ymm5 vpsrldq $6, %ymm2, %ymm10 vpunpckhqdq %ymm2, %ymm9, %ymm8 vpunpcklqdq %ymm2, %ymm9, %ymm9 vpunpcklqdq %ymm10, %ymm5, %ymm10 vpsrlq $4, %ymm10, %ymm2 vpand %ymm7, %ymm2, %ymm2 vpsrlq $26, %ymm9, %ymm11 vpand %ymm7, %ymm9, %ymm5 vpsrlq $30, %ymm10, %ymm9 vpand %ymm7, %ymm9, %ymm9 vpsrlq $40, %ymm8, %ymm8 vpor 32(%rsp), %ymm8, %ymm10 vpand %ymm7, %ymm11, %ymm11 jmp Ljade_onetimeauth_poly1305_amd64_avx2_verify$6 Ljade_onetimeauth_poly1305_amd64_avx2_verify$7: vmovdqu 480(%rsp), %ymm8 vmovdqu 512(%rsp), %ymm7 vmovdqu 288(%rsp), %ymm13 vpaddq %ymm5, %ymm0, %ymm0 vpaddq %ymm11, %ymm1, %ymm1 vpmuludq %ymm8, %ymm0, %ymm5 vpaddq %ymm2, %ymm6, %ymm2 vpmuludq %ymm7, %ymm0, %ymm6 vpaddq %ymm9, %ymm3, %ymm3 vpmuludq %ymm8, %ymm1, %ymm9 vpaddq %ymm10, %ymm4, %ymm4 vpmuludq %ymm7, %ymm1, %ymm12 vpmuludq %ymm8, %ymm2, %ymm14 vpmuludq %ymm7, %ymm2, %ymm10 vpmuludq %ymm8, %ymm3, %ymm11 vpaddq %ymm6, %ymm9, %ymm6 vpmuludq %ymm7, %ymm3, %ymm9 vpaddq %ymm12, %ymm14, %ymm7 vpmuludq %ymm8, %ymm4, %ymm8 vpaddq %ymm10, %ymm11, %ymm11 vpaddq %ymm9, %ymm8, %ymm12 vpmuludq %ymm13, %ymm1, %ymm14 vmovdqu (%rsi), %ymm8 vpmuludq %ymm13, %ymm2, %ymm15 vmovdqu 544(%rsp), %ymm9 vpmuludq %ymm13, %ymm3, %ymm10 vpmuludq %ymm13, %ymm4, %ymm13 vpaddq %ymm14, %ymm5, %ymm5 vmovdqu 32(%rsi), %ymm14 vpaddq %ymm15, %ymm6, %ymm6 vpaddq %ymm10, %ymm7, %ymm10 vpaddq %ymm13, %ymm11, %ymm11 vpmuludq %ymm9, %ymm0, %ymm15 vperm2i128 $32, %ymm14, %ymm8, %ymm7 vpmuludq %ymm9, %ymm1, %ymm13 vperm2i128 $49, %ymm14, %ymm8, %ymm8 vpmuludq %ymm9, %ymm2, %ymm14 vpaddq %ymm15, %ymm10, %ymm9 vmovdqu 256(%rsp), %ymm10 vpaddq %ymm13, %ymm11, %ymm11 vpaddq %ymm14, %ymm12, %ymm12 vpmuludq %ymm10, %ymm2, %ymm2 vpmuludq %ymm10, %ymm3, %ymm13 vmovdqu 576(%rsp), %ymm14 vpmuludq %ymm10, %ymm4, %ymm10 vpsrldq $6, %ymm7, %ymm15 vpaddq %ymm2, %ymm5, %ymm2 vpsrldq $6, %ymm8, %ymm5 vpaddq %ymm13, %ymm6, %ymm6 vpaddq %ymm9, %ymm10, %ymm9 vmovdqu 224(%rsp), %ymm10 vpmuludq %ymm14, %ymm0, %ymm13 vpmuludq %ymm14, %ymm1, %ymm1 vpunpckhqdq %ymm8, %ymm7, %ymm14 vpunpcklqdq %ymm8, %ymm7, %ymm7 vpaddq %ymm13, %ymm11, %ymm11 vpaddq %ymm1, %ymm12, %ymm1 vpmuludq %ymm10, %ymm3, %ymm3 vpmuludq %ymm10, %ymm4, %ymm8 vpaddq %ymm3, %ymm2, %ymm2 vpaddq %ymm6, %ymm8, %ymm3 vmovdqu (%rsp), %ymm8 vpmuludq 192(%rsp), %ymm4, %ymm4 vpmuludq 608(%rsp), %ymm0, %ymm0 vpunpcklqdq %ymm5, %ymm15, %ymm10 vpsrlq $4, %ymm10, %ymm6 vpaddq %ymm4, %ymm2, %ymm2 vpsrlq $26, %ymm2, %ymm12 vpand %ymm8, %ymm2, %ymm4 vpand %ymm8, %ymm11, %ymm5 vpsrlq $26, %ymm11, %ymm13 vpaddq %ymm0, %ymm1, %ymm1 vpand %ymm8, %ymm6, %ymm2 vpsrlq $26, %ymm7, %ymm11 vpaddq %ymm12, %ymm3, %ymm0 vpaddq %ymm13, %ymm1, %ymm6 vpsrlq $26, %ymm0, %ymm1 vpsrlq $26, %ymm6, %ymm3 vpsllq $2, %ymm3, %ymm12 vpaddq %ymm12, %ymm3, %ymm13 vpand %ymm8, %ymm0, %ymm3 vpand %ymm8, %ymm6, %ymm12 vpaddq %ymm1, %ymm9, %ymm0 vpaddq %ymm13, %ymm4, %ymm1 vpsrlq $26, %ymm0, %ymm4 vpsrlq $26, %ymm1, %ymm9 vpand %ymm8, %ymm0, %ymm6 vpand %ymm8, %ymm1, %ymm0 vpaddq %ymm4, %ymm5, %ymm4 vpaddq %ymm9, %ymm3, %ymm1 vpsrlq $26, %ymm4, %ymm5 vpand %ymm8, %ymm4, %ymm3 vpaddq %ymm5, %ymm12, %ymm4 addq $64, %rsi vpand %ymm8, %ymm7, %ymm5 vpsrlq $30, %ymm10, %ymm7 vpand %ymm8, %ymm7, %ymm9 vpsrlq $40, %ymm14, %ymm7 vpor 32(%rsp), %ymm7, %ymm10 vpand %ymm8, %ymm11, %ymm11 addq $-64, %r14 Ljade_onetimeauth_poly1305_amd64_avx2_verify$6: cmpq $128, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx2_verify$7 addq $-64, %r14 vmovdqu 320(%rsp), %ymm7 vmovdqu 352(%rsp), %ymm8 vmovdqu 160(%rsp), %ymm12 vpaddq %ymm5, %ymm0, %ymm0 vpaddq %ymm11, %ymm1, %ymm1 vpaddq %ymm2, %ymm6, %ymm2 vpaddq %ymm9, %ymm3, %ymm3 vpaddq %ymm10, %ymm4, %ymm4 vpmuludq %ymm7, %ymm0, %ymm5 vpmuludq %ymm7, %ymm1, %ymm6 vpmuludq %ymm7, %ymm2, %ymm9 vpmuludq %ymm7, %ymm3, %ymm10 vpmuludq %ymm7, %ymm4, %ymm7 vpmuludq %ymm8, %ymm0, %ymm11 vpmuludq %ymm8, %ymm1, %ymm13 vpmuludq %ymm8, %ymm2, %ymm14 vpmuludq %ymm8, %ymm3, %ymm8 vmovdqu 384(%rsp), %ymm15 vpaddq %ymm11, %ymm6, %ymm6 vpaddq %ymm13, %ymm9, %ymm9 vpaddq %ymm14, %ymm10, %ymm10 vpaddq %ymm8, %ymm7, %ymm7 vpmuludq %ymm12, %ymm1, %ymm8 vpmuludq %ymm12, %ymm2, %ymm11 vpmuludq %ymm12, %ymm3, %ymm13 vpmuludq %ymm12, %ymm4, %ymm12 vmovdqu 128(%rsp), %ymm14 vpaddq %ymm8, %ymm5, %ymm5 vpaddq %ymm11, %ymm6, %ymm6 vpaddq %ymm13, %ymm9, %ymm8 vpaddq %ymm12, %ymm10, %ymm10 vpmuludq %ymm15, %ymm0, %ymm13 vpmuludq %ymm15, %ymm1, %ymm11 vpmuludq %ymm15, %ymm2, %ymm12 vmovdqu 416(%rsp), %ymm9 vpaddq %ymm13, %ymm8, %ymm8 vpaddq %ymm11, %ymm10, %ymm10 vpaddq %ymm12, %ymm7, %ymm7 vpmuludq %ymm14, %ymm2, %ymm2 vpmuludq %ymm14, %ymm3, %ymm12 vpmuludq %ymm14, %ymm4, %ymm13 vmovdqu 96(%rsp), %ymm11 vpaddq %ymm2, %ymm5, %ymm5 vpaddq %ymm12, %ymm6, %ymm6 vpaddq %ymm8, %ymm13, %ymm2 vpmuludq %ymm9, %ymm0, %ymm8 vpmuludq %ymm9, %ymm1, %ymm9 vpaddq %ymm8, %ymm10, %ymm1 vpaddq %ymm9, %ymm7, %ymm7 vpmuludq %ymm11, %ymm3, %ymm3 vpmuludq %ymm11, %ymm4, %ymm8 vpaddq %ymm3, %ymm5, %ymm5 vpaddq %ymm6, %ymm8, %ymm3 vpmuludq 64(%rsp), %ymm4, %ymm4 vpmuludq 448(%rsp), %ymm0, %ymm0 vpaddq %ymm4, %ymm5, %ymm4 vmovdqu %ymm1, %ymm5 vpaddq %ymm0, %ymm7, %ymm6 vmovdqu (%rsp), %ymm0 vpsrlq $26, %ymm4, %ymm7 vpsrlq $26, %ymm5, %ymm8 vpand %ymm0, %ymm4, %ymm1 vpand %ymm0, %ymm5, %ymm4 vpaddq %ymm7, %ymm3, %ymm3 vpaddq %ymm8, %ymm6, %ymm5 vpsrlq $26, %ymm3, %ymm6 vpsrlq $26, %ymm5, %ymm7 vpsllq $2, %ymm7, %ymm8 vpaddq %ymm8, %ymm7, %ymm7 vpand %ymm0, %ymm3, %ymm8 vpand %ymm0, %ymm5, %ymm3 vpaddq %ymm6, %ymm2, %ymm2 vpaddq %ymm7, %ymm1, %ymm5 vpsrlq $26, %ymm2, %ymm6 vpsrlq $26, %ymm5, %ymm7 vpand %ymm0, %ymm2, %ymm1 vpand %ymm0, %ymm5, %ymm2 vpaddq %ymm6, %ymm4, %ymm4 vpaddq %ymm7, %ymm8, %ymm5 vpsrlq $26, %ymm4, %ymm6 vpand %ymm0, %ymm4, %ymm0 vpaddq %ymm6, %ymm3, %ymm3 vpsllq $26, %ymm5, %ymm4 vpaddq %ymm2, %ymm4, %ymm2 vpsllq $26, %ymm0, %ymm0 vpaddq %ymm1, %ymm0, %ymm0 vpsrldq $8, %ymm3, %ymm1 vpaddq %ymm3, %ymm1, %ymm1 vpermq $-128, %ymm1, %ymm1 vperm2i128 $32, %ymm0, %ymm2, %ymm3 vperm2i128 $49, %ymm0, %ymm2, %ymm0 vpaddq %ymm0, %ymm3, %ymm0 vpunpcklqdq %ymm1, %ymm0, %ymm2 vpunpckhqdq %ymm1, %ymm0, %ymm0 vpaddq %ymm0, %ymm2, %ymm0 vextracti128 $1, %ymm0, %xmm1 vpextrq $0, %xmm0, %rax vpextrq $0, %xmm1, %r9 vpextrq $1, %xmm1, %rcx movq %r9, %rbx shlq $52, %rbx shrq $12, %r9 movq %rcx, %r8 shrq $24, %r8 shlq $40, %rcx addq %rax, %rbx adcq %rcx, %r9 adcq $0, %r8 movq %r8, %rax movq %r8, %rcx andq $3, %r8 shrq $2, %rax andq $-4, %rcx addq %rcx, %rax addq %rax, %rbx adcq $0, %r9 adcq $0, %r8 jmp Ljade_onetimeauth_poly1305_amd64_avx2_verify$4 Ljade_onetimeauth_poly1305_amd64_avx2_verify$5: addq (%rsi), %rbx adcq 8(%rsi), %r9 adcq $1, %r8 movq %r12, %r10 imulq %r8, %r10 imulq %rbp, %r8 movq %rbp, %rax mulq %rbx movq %rax, %rcx movq %rdx, %r11 movq %rbp, %rax mulq %r9 addq %rax, %r11 adcq %rdx, %r8 movq %r12, %rax mulq %r9 movq %rdx, %r9 addq %r10, %r9 movq %rax, %r10 movq %r13, %rax mulq %rbx addq %r10, %rcx adcq %rax, %r11 adcq %rdx, %r8 movq $-4, %rbx movq %r8, %rax shrq $2, %rax andq %r8, %rbx addq %rax, %rbx andq $3, %r8 addq %rcx, %rbx adcq %r11, %r9 adcq $0, %r8 addq $16, %rsi addq $-16, %r14 Ljade_onetimeauth_poly1305_amd64_avx2_verify$4: cmpq $16, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx2_verify$5 cmpq $0, %r14 jbe Ljade_onetimeauth_poly1305_amd64_avx2_verify$3 xorq %rcx, %rcx movq %r14, %rax andq $7, %rax shlq $3, %rax shrq $3, %r14 movq %r14, %rdx xorq $1, %rdx movq %r14, %r10 addq $-1, %r10 movq %rax, %r11 andq %r10, %r11 xorq %r11, %rcx xorq %r11, %rax shlq %cl, %rdx movq %rax, %rcx shlq %cl, %r14 movq %rdx, %rax movq %r14, %rcx subq $1, %rax sbbq $0, %rcx movq (%rsi), %r10 andq %rax, %r10 orq %rdx, %r10 movq 8(%rsi), %rax andq %rcx, %rax orq %r14, %rax addq %r10, %rbx adcq %rax, %r9 adcq $0, %r8 movq %r12, %rsi imulq %r8, %rsi imulq %rbp, %r8 movq %rbp, %rax mulq %rbx movq %rax, %rcx movq %rdx, %r10 movq %rbp, %rax mulq %r9 addq %rax, %r10 adcq %rdx, %r8 movq %r12, %rax mulq %r9 movq %rdx, %r9 addq %rsi, %r9 movq %rax, %rsi movq %r13, %rax mulq %rbx addq %rsi, %rcx adcq %rax, %r10 adcq %rdx, %r8 movq $-4, %rbx movq %r8, %rax shrq $2, %rax andq %r8, %rbx addq %rax, %rbx andq $3, %r8 addq %rcx, %rbx adcq %r10, %r9 adcq $0, %r8 Ljade_onetimeauth_poly1305_amd64_avx2_verify$3: movq %rbx, %rax movq %r9, %rcx addq $5, %rax adcq $0, %rcx adcq $0, %r8 shrq $2, %r8 negq %r8 xorq %rbx, %rax xorq %r9, %rcx andq %r8, %rax andq %r8, %rcx xorq %rbx, %rax xorq %r9, %rcx movq (%r15), %rdx movq 8(%r15), %rsi addq %rdx, %rax adcq %rsi, %rcx Ljade_onetimeauth_poly1305_amd64_avx2_verify$2: movq %rax, %rdx xorq (%rdi), %rdx xorq 8(%rdi), %rcx orq %rcx, %rdx xorq %rax, %rax subq $1, %rdx adcq $0, %rax addq $-1, %rax movq 640(%rsp), %rbx movq 648(%rsp), %rbp movq 656(%rsp), %r12 movq 664(%rsp), %r13 movq 672(%rsp), %r14 movq 680(%rsp), %r15 movq 688(%rsp), %rsp ret _jade_onetimeauth_poly1305_amd64_avx2: jade_onetimeauth_poly1305_amd64_avx2: movq %rsp, %rax leaq -696(%rsp), %rsp andq $-32, %rsp movq %rax, 688(%rsp) movq %rbx, 640(%rsp) movq %rbp, 648(%rsp) movq %r12, 656(%rsp) movq %r13, 664(%rsp) movq %r14, 672(%rsp) movq %r15, 680(%rsp) movq %rdx, %r14 movq %rcx, %r15 cmpq $256, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx2$1 movq $0, %rbp movq $0, %r12 movq $0, %r8 movq (%r15), %r9 movq 8(%r15), %r13 movq $1152921487695413247, %rax andq %rax, %r9 movq $1152921487695413244, %rax andq %rax, %r13 movq %r13, %rbx shrq $2, %rbx addq %r13, %rbx addq $16, %r15 jmp Ljade_onetimeauth_poly1305_amd64_avx2$9 Ljade_onetimeauth_poly1305_amd64_avx2$10: addq (%rsi), %rbp adcq 8(%rsi), %r12 adcq $1, %r8 movq %rbx, %r11 imulq %r8, %r11 imulq %r9, %r8 movq %r9, %rax mulq %rbp movq %rax, %rcx movq %rdx, %r10 movq %r9, %rax mulq %r12 addq %rax, %r10 adcq %rdx, %r8 movq %rbx, %rax mulq %r12 movq %rdx, %r12 addq %r11, %r12 movq %rax, %r11 movq %r13, %rax mulq %rbp addq %r11, %rcx adcq %rax, %r10 adcq %rdx, %r8 movq $-4, %rbp movq %r8, %rax shrq $2, %rax andq %r8, %rbp addq %rax, %rbp andq $3, %r8 addq %rcx, %rbp adcq %r10, %r12 adcq $0, %r8 addq $16, %rsi addq $-16, %r14 Ljade_onetimeauth_poly1305_amd64_avx2$9: cmpq $16, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx2$10 cmpq $0, %r14 jbe Ljade_onetimeauth_poly1305_amd64_avx2$8 xorq %rcx, %rcx movq %r14, %rax andq $7, %rax shlq $3, %rax shrq $3, %r14 movq %r14, %rdx xorq $1, %rdx movq %r14, %r10 addq $-1, %r10 movq %rax, %r11 andq %r10, %r11 xorq %r11, %rcx xorq %r11, %rax shlq %cl, %rdx movq %rax, %rcx shlq %cl, %r14 movq %rdx, %rax movq %r14, %rcx subq $1, %rax sbbq $0, %rcx movq (%rsi), %r10 andq %rax, %r10 orq %rdx, %r10 movq 8(%rsi), %rax andq %rcx, %rax orq %r14, %rax addq %r10, %rbp adcq %rax, %r12 adcq $0, %r8 movq %rbx, %rsi imulq %r8, %rsi imulq %r9, %r8 movq %r9, %rax mulq %rbp movq %rax, %rcx movq %rdx, %r10 movq %r9, %rax mulq %r12 addq %rax, %r10 adcq %rdx, %r8 movq %rbx, %rax mulq %r12 movq %rdx, %r12 addq %rsi, %r12 movq %rax, %rsi movq %r13, %rax mulq %rbp addq %rsi, %rcx adcq %rax, %r10 adcq %rdx, %r8 movq $-4, %rbp movq %r8, %rax shrq $2, %rax andq %r8, %rbp addq %rax, %rbp andq $3, %r8 addq %rcx, %rbp adcq %r10, %r12 adcq $0, %r8 Ljade_onetimeauth_poly1305_amd64_avx2$8: movq %rbp, %rax movq %r12, %rcx addq $5, %rax adcq $0, %rcx adcq $0, %r8 shrq $2, %r8 negq %r8 xorq %rbp, %rax xorq %r12, %rcx andq %r8, %rax andq %r8, %rcx xorq %rbp, %rax xorq %r12, %rcx movq (%r15), %rdx movq 8(%r15), %rsi addq %rdx, %rax adcq %rsi, %rcx jmp Ljade_onetimeauth_poly1305_amd64_avx2$2 Ljade_onetimeauth_poly1305_amd64_avx2$1: movq (%r15), %r13 movq 8(%r15), %r12 movq $1152921487695413247, %rax andq %rax, %r13 movq $1152921487695413244, %rax andq %rax, %r12 movq %r12, %rbp shrq $2, %rbp addq %r12, %rbp addq $16, %r15 movq %r13, %r8 movq %r12, %r11 movq $0, %rbx movq %r8, %rax andq $67108863, %rax movq %rax, 344(%rsp) movq %r8, %rax shrq $26, %rax andq $67108863, %rax movq %rax, 376(%rsp) movq %r8, %rax shrdq $52, %r11, %rax movq %rax, %rcx andq $67108863, %rax movq %rax, 408(%rsp) shrq $26, %rcx andq $67108863, %rcx movq %rcx, 440(%rsp) movq %r11, %rax shrdq $40, %rbx, %rax movq %rax, 472(%rsp) movq %rbp, %r10 imulq %rbx, %r10 imulq %r13, %rbx movq %r13, %rax mulq %r8 movq %rax, %rcx movq %rdx, %r9 movq %r13, %rax mulq %r11 addq %rax, %r9 adcq %rdx, %rbx movq %rbp, %rax mulq %r11 movq %rdx, %r11 addq %r10, %r11 movq %rax, %r10 movq %r12, %rax mulq %r8 addq %r10, %rcx adcq %rax, %r9 adcq %rdx, %rbx movq $-4, %r8 movq %rbx, %rax shrq $2, %rax andq %rbx, %r8 addq %rax, %r8 andq $3, %rbx addq %rcx, %r8 adcq %r9, %r11 adcq $0, %rbx movq %r8, %rax andq $67108863, %rax movq %rax, 336(%rsp) movq %r8, %rax shrq $26, %rax andq $67108863, %rax movq %rax, 368(%rsp) movq %r8, %rax shrdq $52, %r11, %rax movq %rax, %rcx andq $67108863, %rax movq %rax, 400(%rsp) shrq $26, %rcx andq $67108863, %rcx movq %rcx, 432(%rsp) movq %r11, %rax shrdq $40, %rbx, %rax movq %rax, 464(%rsp) movq %rbp, %r10 imulq %rbx, %r10 imulq %r13, %rbx movq %r13, %rax mulq %r8 movq %rax, %rcx movq %rdx, %r9 movq %r13, %rax mulq %r11 addq %rax, %r9 adcq %rdx, %rbx movq %rbp, %rax mulq %r11 movq %rdx, %r11 addq %r10, %r11 movq %rax, %r10 movq %r12, %rax mulq %r8 addq %r10, %rcx adcq %rax, %r9 adcq %rdx, %rbx movq $-4, %r8 movq %rbx, %rax shrq $2, %rax andq %rbx, %r8 addq %rax, %r8 andq $3, %rbx addq %rcx, %r8 adcq %r9, %r11 adcq $0, %rbx movq %r8, %rax andq $67108863, %rax movq %rax, 328(%rsp) movq %r8, %rax shrq $26, %rax andq $67108863, %rax movq %rax, 360(%rsp) movq %r8, %rax shrdq $52, %r11, %rax movq %rax, %rcx andq $67108863, %rax movq %rax, 392(%rsp) shrq $26, %rcx andq $67108863, %rcx movq %rcx, 424(%rsp) movq %r11, %rax shrdq $40, %rbx, %rax movq %rax, 456(%rsp) movq %rbp, %r9 imulq %rbx, %r9 imulq %r13, %rbx movq %r13, %rax mulq %r8 movq %rax, %rcx movq %rdx, %r10 movq %r13, %rax mulq %r11 addq %rax, %r10 adcq %rdx, %rbx movq %rbp, %rax mulq %r11 movq %rdx, %r11 addq %r9, %r11 movq %rax, %r9 movq %r12, %rax mulq %r8 addq %r9, %rcx adcq %rax, %r10 adcq %rdx, %rbx movq $-4, %rax movq %rbx, %rdx shrq $2, %rdx andq %rbx, %rax addq %rdx, %rax andq $3, %rbx addq %rcx, %rax adcq %r10, %r11 adcq $0, %rbx movq %rax, %rcx andq $67108863, %rcx movq %rcx, 320(%rsp) movq %rax, %rcx shrq $26, %rcx andq $67108863, %rcx movq %rcx, 352(%rsp) shrdq $52, %r11, %rax movq %rax, %rcx andq $67108863, %rax movq %rax, 384(%rsp) shrq $26, %rcx andq $67108863, %rcx movq %rcx, 416(%rsp) shrdq $40, %rbx, %r11 movq %r11, 448(%rsp) vpbroadcastq glob_data + 16(%rip), %ymm0 vpmuludq 352(%rsp), %ymm0, %ymm1 vmovdqu %ymm1, 64(%rsp) vpmuludq 384(%rsp), %ymm0, %ymm1 vmovdqu %ymm1, 96(%rsp) vpmuludq 416(%rsp), %ymm0, %ymm1 vmovdqu %ymm1, 128(%rsp) vpmuludq 448(%rsp), %ymm0, %ymm0 vmovdqu %ymm0, 160(%rsp) vpbroadcastq 320(%rsp), %ymm0 vmovdqu %ymm0, 480(%rsp) vpbroadcastq 352(%rsp), %ymm0 vmovdqu %ymm0, 512(%rsp) vpbroadcastq 384(%rsp), %ymm0 vmovdqu %ymm0, 544(%rsp) vpbroadcastq 416(%rsp), %ymm0 vmovdqu %ymm0, 576(%rsp) vpbroadcastq 448(%rsp), %ymm0 vmovdqu %ymm0, 608(%rsp) vpbroadcastq 64(%rsp), %ymm0 vmovdqu %ymm0, 192(%rsp) vpbroadcastq 96(%rsp), %ymm0 vmovdqu %ymm0, 224(%rsp) vpbroadcastq 128(%rsp), %ymm0 vmovdqu %ymm0, 256(%rsp) vpbroadcastq 160(%rsp), %ymm0 vmovdqu %ymm0, 288(%rsp) vpxor %ymm0, %ymm0, %ymm0 vpxor %ymm1, %ymm1, %ymm1 vpxor %ymm6, %ymm6, %ymm6 vpxor %ymm3, %ymm3, %ymm3 vpxor %ymm4, %ymm4, %ymm4 vpbroadcastq glob_data + 8(%rip), %ymm7 vmovdqu %ymm7, (%rsp) vpbroadcastq glob_data + 0(%rip), %ymm2 vmovdqu %ymm2, 32(%rsp) vmovdqu (%rsi), %ymm2 vmovdqu 32(%rsi), %ymm5 addq $64, %rsi vperm2i128 $32, %ymm5, %ymm2, %ymm9 vperm2i128 $49, %ymm5, %ymm2, %ymm2 vpsrldq $6, %ymm9, %ymm5 vpsrldq $6, %ymm2, %ymm10 vpunpckhqdq %ymm2, %ymm9, %ymm8 vpunpcklqdq %ymm2, %ymm9, %ymm9 vpunpcklqdq %ymm10, %ymm5, %ymm10 vpsrlq $4, %ymm10, %ymm2 vpand %ymm7, %ymm2, %ymm2 vpsrlq $26, %ymm9, %ymm11 vpand %ymm7, %ymm9, %ymm5 vpsrlq $30, %ymm10, %ymm9 vpand %ymm7, %ymm9, %ymm9 vpsrlq $40, %ymm8, %ymm8 vpor 32(%rsp), %ymm8, %ymm10 vpand %ymm7, %ymm11, %ymm11 jmp Ljade_onetimeauth_poly1305_amd64_avx2$6 Ljade_onetimeauth_poly1305_amd64_avx2$7: vmovdqu 480(%rsp), %ymm8 vmovdqu 512(%rsp), %ymm7 vmovdqu 288(%rsp), %ymm13 vpaddq %ymm5, %ymm0, %ymm0 vpaddq %ymm11, %ymm1, %ymm1 vpmuludq %ymm8, %ymm0, %ymm5 vpaddq %ymm2, %ymm6, %ymm2 vpmuludq %ymm7, %ymm0, %ymm6 vpaddq %ymm9, %ymm3, %ymm3 vpmuludq %ymm8, %ymm1, %ymm9 vpaddq %ymm10, %ymm4, %ymm4 vpmuludq %ymm7, %ymm1, %ymm12 vpmuludq %ymm8, %ymm2, %ymm14 vpmuludq %ymm7, %ymm2, %ymm10 vpmuludq %ymm8, %ymm3, %ymm11 vpaddq %ymm6, %ymm9, %ymm6 vpmuludq %ymm7, %ymm3, %ymm9 vpaddq %ymm12, %ymm14, %ymm7 vpmuludq %ymm8, %ymm4, %ymm8 vpaddq %ymm10, %ymm11, %ymm11 vpaddq %ymm9, %ymm8, %ymm12 vpmuludq %ymm13, %ymm1, %ymm14 vmovdqu (%rsi), %ymm8 vpmuludq %ymm13, %ymm2, %ymm15 vmovdqu 544(%rsp), %ymm9 vpmuludq %ymm13, %ymm3, %ymm10 vpmuludq %ymm13, %ymm4, %ymm13 vpaddq %ymm14, %ymm5, %ymm5 vmovdqu 32(%rsi), %ymm14 vpaddq %ymm15, %ymm6, %ymm6 vpaddq %ymm10, %ymm7, %ymm10 vpaddq %ymm13, %ymm11, %ymm11 vpmuludq %ymm9, %ymm0, %ymm15 vperm2i128 $32, %ymm14, %ymm8, %ymm7 vpmuludq %ymm9, %ymm1, %ymm13 vperm2i128 $49, %ymm14, %ymm8, %ymm8 vpmuludq %ymm9, %ymm2, %ymm14 vpaddq %ymm15, %ymm10, %ymm9 vmovdqu 256(%rsp), %ymm10 vpaddq %ymm13, %ymm11, %ymm11 vpaddq %ymm14, %ymm12, %ymm12 vpmuludq %ymm10, %ymm2, %ymm2 vpmuludq %ymm10, %ymm3, %ymm13 vmovdqu 576(%rsp), %ymm14 vpmuludq %ymm10, %ymm4, %ymm10 vpsrldq $6, %ymm7, %ymm15 vpaddq %ymm2, %ymm5, %ymm2 vpsrldq $6, %ymm8, %ymm5 vpaddq %ymm13, %ymm6, %ymm6 vpaddq %ymm9, %ymm10, %ymm9 vmovdqu 224(%rsp), %ymm10 vpmuludq %ymm14, %ymm0, %ymm13 vpmuludq %ymm14, %ymm1, %ymm1 vpunpckhqdq %ymm8, %ymm7, %ymm14 vpunpcklqdq %ymm8, %ymm7, %ymm7 vpaddq %ymm13, %ymm11, %ymm11 vpaddq %ymm1, %ymm12, %ymm1 vpmuludq %ymm10, %ymm3, %ymm3 vpmuludq %ymm10, %ymm4, %ymm8 vpaddq %ymm3, %ymm2, %ymm2 vpaddq %ymm6, %ymm8, %ymm3 vmovdqu (%rsp), %ymm8 vpmuludq 192(%rsp), %ymm4, %ymm4 vpmuludq 608(%rsp), %ymm0, %ymm0 vpunpcklqdq %ymm5, %ymm15, %ymm10 vpsrlq $4, %ymm10, %ymm6 vpaddq %ymm4, %ymm2, %ymm2 vpsrlq $26, %ymm2, %ymm12 vpand %ymm8, %ymm2, %ymm4 vpand %ymm8, %ymm11, %ymm5 vpsrlq $26, %ymm11, %ymm13 vpaddq %ymm0, %ymm1, %ymm1 vpand %ymm8, %ymm6, %ymm2 vpsrlq $26, %ymm7, %ymm11 vpaddq %ymm12, %ymm3, %ymm0 vpaddq %ymm13, %ymm1, %ymm6 vpsrlq $26, %ymm0, %ymm1 vpsrlq $26, %ymm6, %ymm3 vpsllq $2, %ymm3, %ymm12 vpaddq %ymm12, %ymm3, %ymm13 vpand %ymm8, %ymm0, %ymm3 vpand %ymm8, %ymm6, %ymm12 vpaddq %ymm1, %ymm9, %ymm0 vpaddq %ymm13, %ymm4, %ymm1 vpsrlq $26, %ymm0, %ymm4 vpsrlq $26, %ymm1, %ymm9 vpand %ymm8, %ymm0, %ymm6 vpand %ymm8, %ymm1, %ymm0 vpaddq %ymm4, %ymm5, %ymm4 vpaddq %ymm9, %ymm3, %ymm1 vpsrlq $26, %ymm4, %ymm5 vpand %ymm8, %ymm4, %ymm3 vpaddq %ymm5, %ymm12, %ymm4 addq $64, %rsi vpand %ymm8, %ymm7, %ymm5 vpsrlq $30, %ymm10, %ymm7 vpand %ymm8, %ymm7, %ymm9 vpsrlq $40, %ymm14, %ymm7 vpor 32(%rsp), %ymm7, %ymm10 vpand %ymm8, %ymm11, %ymm11 addq $-64, %r14 Ljade_onetimeauth_poly1305_amd64_avx2$6: cmpq $128, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx2$7 addq $-64, %r14 vmovdqu 320(%rsp), %ymm7 vmovdqu 352(%rsp), %ymm8 vmovdqu 160(%rsp), %ymm12 vpaddq %ymm5, %ymm0, %ymm0 vpaddq %ymm11, %ymm1, %ymm1 vpaddq %ymm2, %ymm6, %ymm2 vpaddq %ymm9, %ymm3, %ymm3 vpaddq %ymm10, %ymm4, %ymm4 vpmuludq %ymm7, %ymm0, %ymm5 vpmuludq %ymm7, %ymm1, %ymm6 vpmuludq %ymm7, %ymm2, %ymm9 vpmuludq %ymm7, %ymm3, %ymm10 vpmuludq %ymm7, %ymm4, %ymm7 vpmuludq %ymm8, %ymm0, %ymm11 vpmuludq %ymm8, %ymm1, %ymm13 vpmuludq %ymm8, %ymm2, %ymm14 vpmuludq %ymm8, %ymm3, %ymm8 vmovdqu 384(%rsp), %ymm15 vpaddq %ymm11, %ymm6, %ymm6 vpaddq %ymm13, %ymm9, %ymm9 vpaddq %ymm14, %ymm10, %ymm10 vpaddq %ymm8, %ymm7, %ymm7 vpmuludq %ymm12, %ymm1, %ymm8 vpmuludq %ymm12, %ymm2, %ymm11 vpmuludq %ymm12, %ymm3, %ymm13 vpmuludq %ymm12, %ymm4, %ymm12 vmovdqu 128(%rsp), %ymm14 vpaddq %ymm8, %ymm5, %ymm5 vpaddq %ymm11, %ymm6, %ymm6 vpaddq %ymm13, %ymm9, %ymm8 vpaddq %ymm12, %ymm10, %ymm10 vpmuludq %ymm15, %ymm0, %ymm13 vpmuludq %ymm15, %ymm1, %ymm11 vpmuludq %ymm15, %ymm2, %ymm12 vmovdqu 416(%rsp), %ymm9 vpaddq %ymm13, %ymm8, %ymm8 vpaddq %ymm11, %ymm10, %ymm10 vpaddq %ymm12, %ymm7, %ymm7 vpmuludq %ymm14, %ymm2, %ymm2 vpmuludq %ymm14, %ymm3, %ymm12 vpmuludq %ymm14, %ymm4, %ymm13 vmovdqu 96(%rsp), %ymm11 vpaddq %ymm2, %ymm5, %ymm5 vpaddq %ymm12, %ymm6, %ymm6 vpaddq %ymm8, %ymm13, %ymm2 vpmuludq %ymm9, %ymm0, %ymm8 vpmuludq %ymm9, %ymm1, %ymm9 vpaddq %ymm8, %ymm10, %ymm1 vpaddq %ymm9, %ymm7, %ymm7 vpmuludq %ymm11, %ymm3, %ymm3 vpmuludq %ymm11, %ymm4, %ymm8 vpaddq %ymm3, %ymm5, %ymm5 vpaddq %ymm6, %ymm8, %ymm3 vpmuludq 64(%rsp), %ymm4, %ymm4 vpmuludq 448(%rsp), %ymm0, %ymm0 vpaddq %ymm4, %ymm5, %ymm4 vmovdqu %ymm1, %ymm5 vpaddq %ymm0, %ymm7, %ymm6 vmovdqu (%rsp), %ymm0 vpsrlq $26, %ymm4, %ymm7 vpsrlq $26, %ymm5, %ymm8 vpand %ymm0, %ymm4, %ymm1 vpand %ymm0, %ymm5, %ymm4 vpaddq %ymm7, %ymm3, %ymm3 vpaddq %ymm8, %ymm6, %ymm5 vpsrlq $26, %ymm3, %ymm6 vpsrlq $26, %ymm5, %ymm7 vpsllq $2, %ymm7, %ymm8 vpaddq %ymm8, %ymm7, %ymm7 vpand %ymm0, %ymm3, %ymm8 vpand %ymm0, %ymm5, %ymm3 vpaddq %ymm6, %ymm2, %ymm2 vpaddq %ymm7, %ymm1, %ymm5 vpsrlq $26, %ymm2, %ymm6 vpsrlq $26, %ymm5, %ymm7 vpand %ymm0, %ymm2, %ymm1 vpand %ymm0, %ymm5, %ymm2 vpaddq %ymm6, %ymm4, %ymm4 vpaddq %ymm7, %ymm8, %ymm5 vpsrlq $26, %ymm4, %ymm6 vpand %ymm0, %ymm4, %ymm0 vpaddq %ymm6, %ymm3, %ymm3 vpsllq $26, %ymm5, %ymm4 vpaddq %ymm2, %ymm4, %ymm2 vpsllq $26, %ymm0, %ymm0 vpaddq %ymm1, %ymm0, %ymm0 vpsrldq $8, %ymm3, %ymm1 vpaddq %ymm3, %ymm1, %ymm1 vpermq $-128, %ymm1, %ymm1 vperm2i128 $32, %ymm0, %ymm2, %ymm3 vperm2i128 $49, %ymm0, %ymm2, %ymm0 vpaddq %ymm0, %ymm3, %ymm0 vpunpcklqdq %ymm1, %ymm0, %ymm2 vpunpckhqdq %ymm1, %ymm0, %ymm0 vpaddq %ymm0, %ymm2, %ymm0 vextracti128 $1, %ymm0, %xmm1 vpextrq $0, %xmm0, %rax vpextrq $0, %xmm1, %r8 vpextrq $1, %xmm1, %rcx movq %r8, %r9 shlq $52, %r9 shrq $12, %r8 movq %rcx, %rbx shrq $24, %rbx shlq $40, %rcx addq %rax, %r9 adcq %rcx, %r8 adcq $0, %rbx movq %rbx, %rax movq %rbx, %rcx andq $3, %rbx shrq $2, %rax andq $-4, %rcx addq %rcx, %rax addq %rax, %r9 adcq $0, %r8 adcq $0, %rbx jmp Ljade_onetimeauth_poly1305_amd64_avx2$4 Ljade_onetimeauth_poly1305_amd64_avx2$5: addq (%rsi), %r9 adcq 8(%rsi), %r8 adcq $1, %rbx movq %rbp, %r11 imulq %rbx, %r11 imulq %r13, %rbx movq %r13, %rax mulq %r9 movq %rax, %rcx movq %rdx, %r10 movq %r13, %rax mulq %r8 addq %rax, %r10 adcq %rdx, %rbx movq %rbp, %rax mulq %r8 movq %rdx, %r8 addq %r11, %r8 movq %rax, %r11 movq %r12, %rax mulq %r9 addq %r11, %rcx adcq %rax, %r10 adcq %rdx, %rbx movq $-4, %r9 movq %rbx, %rax shrq $2, %rax andq %rbx, %r9 addq %rax, %r9 andq $3, %rbx addq %rcx, %r9 adcq %r10, %r8 adcq $0, %rbx addq $16, %rsi addq $-16, %r14 Ljade_onetimeauth_poly1305_amd64_avx2$4: cmpq $16, %r14 jnb Ljade_onetimeauth_poly1305_amd64_avx2$5 cmpq $0, %r14 jbe Ljade_onetimeauth_poly1305_amd64_avx2$3 xorq %rcx, %rcx movq %r14, %rax andq $7, %rax shlq $3, %rax shrq $3, %r14 movq %r14, %rdx xorq $1, %rdx movq %r14, %r10 addq $-1, %r10 movq %rax, %r11 andq %r10, %r11 xorq %r11, %rcx xorq %r11, %rax shlq %cl, %rdx movq %rax, %rcx shlq %cl, %r14 movq %rdx, %rax movq %r14, %rcx subq $1, %rax sbbq $0, %rcx movq (%rsi), %r10 andq %rax, %r10 orq %rdx, %r10 movq 8(%rsi), %rax andq %rcx, %rax orq %r14, %rax addq %r10, %r9 adcq %rax, %r8 adcq $0, %rbx movq %rbp, %rsi imulq %rbx, %rsi imulq %r13, %rbx movq %r13, %rax mulq %r9 movq %rax, %rcx movq %rdx, %r10 movq %r13, %rax mulq %r8 addq %rax, %r10 adcq %rdx, %rbx movq %rbp, %rax mulq %r8 movq %rdx, %r8 addq %rsi, %r8 movq %rax, %rsi movq %r12, %rax mulq %r9 addq %rsi, %rcx adcq %rax, %r10 adcq %rdx, %rbx movq $-4, %r9 movq %rbx, %rax shrq $2, %rax andq %rbx, %r9 addq %rax, %r9 andq $3, %rbx addq %rcx, %r9 adcq %r10, %r8 adcq $0, %rbx Ljade_onetimeauth_poly1305_amd64_avx2$3: movq %r9, %rax movq %r8, %rcx addq $5, %rax adcq $0, %rcx adcq $0, %rbx shrq $2, %rbx negq %rbx xorq %r9, %rax xorq %r8, %rcx andq %rbx, %rax andq %rbx, %rcx xorq %r9, %rax xorq %r8, %rcx movq (%r15), %rdx movq 8(%r15), %rsi addq %rdx, %rax adcq %rsi, %rcx Ljade_onetimeauth_poly1305_amd64_avx2$2: movq %rax, (%rdi) movq %rcx, 8(%rdi) xorq %rax, %rax movq 640(%rsp), %rbx movq 648(%rsp), %rbp movq 656(%rsp), %r12 movq 664(%rsp), %r13 movq 672(%rsp), %r14 movq 680(%rsp), %r15 movq 688(%rsp), %rsp ret .data .p2align 5 _glob_data: glob_data: .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte -1 .byte -1 .byte -1 .byte 3 .byte 0 .byte 0 .byte 0 .byte 0 .byte 5 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0
verdict-x509/verdict
31,350
deps/libcrux/sys/libjade/jazz/sha3_384_ref.s
.att_syntax .text .p2align 5 .globl _jade_hash_sha3_384_amd64_ref .globl jade_hash_sha3_384_amd64_ref _jade_hash_sha3_384_amd64_ref: jade_hash_sha3_384_amd64_ref: movq %rsp, %rax leaq -48(%rsp), %rsp andq $-8, %rsp movq %rax, 40(%rsp) movq %rbx, (%rsp) movq %rbp, 8(%rsp) movq %r12, 16(%rsp) movq %r13, 24(%rsp) movq %r14, 32(%rsp) movq $48, %rcx movb $6, %r8b movq $104, %rax leaq -448(%rsp), %rsp call L_keccak1600_ref$1 Ljade_hash_sha3_384_amd64_ref$1: leaq 448(%rsp), %rsp xorq %rax, %rax movq (%rsp), %rbx movq 8(%rsp), %rbp movq 16(%rsp), %r12 movq 24(%rsp), %r13 movq 32(%rsp), %r14 movq 40(%rsp), %rsp ret L_keccak1600_ref$1: movq %rdi, 8(%rsp) movq %rcx, 16(%rsp) movb %r8b, 448(%rsp) xorq %rcx, %rcx movq %rcx, 48(%rsp) movq %rcx, 56(%rsp) movq %rcx, 64(%rsp) movq %rcx, 72(%rsp) movq %rcx, 80(%rsp) movq %rcx, 88(%rsp) movq %rcx, 96(%rsp) movq %rcx, 104(%rsp) movq %rcx, 112(%rsp) movq %rcx, 120(%rsp) movq %rcx, 128(%rsp) movq %rcx, 136(%rsp) movq %rcx, 144(%rsp) movq %rcx, 152(%rsp) movq %rcx, 160(%rsp) movq %rcx, 168(%rsp) movq %rcx, 176(%rsp) movq %rcx, 184(%rsp) movq %rcx, 192(%rsp) movq %rcx, 200(%rsp) movq %rcx, 208(%rsp) movq %rcx, 216(%rsp) movq %rcx, 224(%rsp) movq %rcx, 232(%rsp) movq %rcx, 240(%rsp) jmp L_keccak1600_ref$16 L_keccak1600_ref$17: movq %rax, %rcx shrq $3, %rcx movq $0, %rdi jmp L_keccak1600_ref$19 L_keccak1600_ref$20: movq (%rsi,%rdi,8), %r8 xorq %r8, 48(%rsp,%rdi,8) incq %rdi L_keccak1600_ref$19: cmpq %rcx, %rdi jb L_keccak1600_ref$20 addq %rax, %rsi subq %rax, %rdx movq %rsi, 24(%rsp) movq %rdx, 32(%rsp) movq %rax, 40(%rsp) leaq glob_data + 0(%rip), %rax movq $0, %rcx L_keccak1600_ref$18: movq (%rax,%rcx,8), %r10 movq 48(%rsp), %r9 movq 56(%rsp), %r8 movq 64(%rsp), %r11 movq 72(%rsp), %rbx movq 80(%rsp), %rbp xorq 88(%rsp), %r9 xorq 96(%rsp), %r8 xorq 104(%rsp), %r11 xorq 112(%rsp), %rbx xorq 120(%rsp), %rbp xorq 128(%rsp), %r9 xorq 136(%rsp), %r8 xorq 144(%rsp), %r11 xorq 152(%rsp), %rbx xorq 160(%rsp), %rbp xorq 168(%rsp), %r9 xorq 176(%rsp), %r8 xorq 184(%rsp), %r11 xorq 192(%rsp), %rbx xorq 200(%rsp), %rbp xorq 208(%rsp), %r9 xorq 216(%rsp), %r8 xorq 224(%rsp), %r11 xorq 232(%rsp), %rbx xorq 240(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 48(%rsp), %r11 xorq %rdx, %r11 movq 96(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 144(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 192(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 240(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 248(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 256(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 264(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 272(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 280(%rsp) movq 72(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 120(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 128(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 176(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 224(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 288(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 296(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 304(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 312(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 320(%rsp) movq 56(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 104(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 152(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 200(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 208(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 328(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 336(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 344(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 352(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 360(%rsp) movq 80(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 88(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 136(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 184(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 232(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 368(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 376(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 384(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 392(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 400(%rsp) movq 64(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 112(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 160(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 168(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 216(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 408(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 416(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 424(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 432(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 440(%rsp) movq 8(%rax,%rcx,8), %r10 movq 248(%rsp), %r9 movq 256(%rsp), %r8 movq 264(%rsp), %r11 movq 272(%rsp), %rbx movq 280(%rsp), %rbp xorq 288(%rsp), %r9 xorq 296(%rsp), %r8 xorq 304(%rsp), %r11 xorq 312(%rsp), %rbx xorq 320(%rsp), %rbp xorq 328(%rsp), %r9 xorq 336(%rsp), %r8 xorq 344(%rsp), %r11 xorq 352(%rsp), %rbx xorq 360(%rsp), %rbp xorq 368(%rsp), %r9 xorq 376(%rsp), %r8 xorq 384(%rsp), %r11 xorq 392(%rsp), %rbx xorq 400(%rsp), %rbp xorq 408(%rsp), %r9 xorq 416(%rsp), %r8 xorq 424(%rsp), %r11 xorq 432(%rsp), %rbx xorq 440(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 248(%rsp), %r11 xorq %rdx, %r11 movq 296(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 344(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 392(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 440(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 48(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 56(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 64(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 72(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 80(%rsp) movq 272(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 320(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 328(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 376(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 424(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 88(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 96(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 104(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 112(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 120(%rsp) movq 256(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 304(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 352(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 400(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 408(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 128(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 136(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 144(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 152(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 160(%rsp) movq 280(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 288(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 336(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 384(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 432(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 168(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 176(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 184(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 192(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 200(%rsp) movq 264(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 312(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 360(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 368(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 416(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 208(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 216(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 224(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 232(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 240(%rsp) addq $2, %rcx cmpq $23, %rcx jb L_keccak1600_ref$18 movq 24(%rsp), %rsi movq 32(%rsp), %rdx movq 40(%rsp), %rax L_keccak1600_ref$16: cmpq %rax, %rdx jnb L_keccak1600_ref$17 movb 448(%rsp), %cl movq %rdx, %rdi shrq $3, %rdi movq $0, %r8 jmp L_keccak1600_ref$14 L_keccak1600_ref$15: movq (%rsi,%r8,8), %r9 xorq %r9, 48(%rsp,%r8,8) incq %r8 L_keccak1600_ref$14: cmpq %rdi, %r8 jb L_keccak1600_ref$15 shlq $3, %r8 jmp L_keccak1600_ref$12 L_keccak1600_ref$13: movb (%rsi,%r8), %dil xorb %dil, 48(%rsp,%r8) incq %r8 L_keccak1600_ref$12: cmpq %rdx, %r8 jb L_keccak1600_ref$13 xorb %cl, 48(%rsp,%r8) movq %rax, %rcx addq $-1, %rcx xorb $-128, 48(%rsp,%rcx) movq 16(%rsp), %rdx jmp L_keccak1600_ref$7 L_keccak1600_ref$8: movq %rdx, 16(%rsp) movq %rax, 40(%rsp) leaq glob_data + 0(%rip), %rax movq $0, %rcx L_keccak1600_ref$11: movq (%rax,%rcx,8), %r10 movq 48(%rsp), %r9 movq 56(%rsp), %r8 movq 64(%rsp), %r11 movq 72(%rsp), %rbx movq 80(%rsp), %rbp xorq 88(%rsp), %r9 xorq 96(%rsp), %r8 xorq 104(%rsp), %r11 xorq 112(%rsp), %rbx xorq 120(%rsp), %rbp xorq 128(%rsp), %r9 xorq 136(%rsp), %r8 xorq 144(%rsp), %r11 xorq 152(%rsp), %rbx xorq 160(%rsp), %rbp xorq 168(%rsp), %r9 xorq 176(%rsp), %r8 xorq 184(%rsp), %r11 xorq 192(%rsp), %rbx xorq 200(%rsp), %rbp xorq 208(%rsp), %r9 xorq 216(%rsp), %r8 xorq 224(%rsp), %r11 xorq 232(%rsp), %rbx xorq 240(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 48(%rsp), %r11 xorq %rdx, %r11 movq 96(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 144(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 192(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 240(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 248(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 256(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 264(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 272(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 280(%rsp) movq 72(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 120(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 128(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 176(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 224(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 288(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 296(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 304(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 312(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 320(%rsp) movq 56(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 104(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 152(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 200(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 208(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 328(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 336(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 344(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 352(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 360(%rsp) movq 80(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 88(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 136(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 184(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 232(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 368(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 376(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 384(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 392(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 400(%rsp) movq 64(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 112(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 160(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 168(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 216(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 408(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 416(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 424(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 432(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 440(%rsp) movq 8(%rax,%rcx,8), %r10 movq 248(%rsp), %r9 movq 256(%rsp), %r8 movq 264(%rsp), %r11 movq 272(%rsp), %rbx movq 280(%rsp), %rbp xorq 288(%rsp), %r9 xorq 296(%rsp), %r8 xorq 304(%rsp), %r11 xorq 312(%rsp), %rbx xorq 320(%rsp), %rbp xorq 328(%rsp), %r9 xorq 336(%rsp), %r8 xorq 344(%rsp), %r11 xorq 352(%rsp), %rbx xorq 360(%rsp), %rbp xorq 368(%rsp), %r9 xorq 376(%rsp), %r8 xorq 384(%rsp), %r11 xorq 392(%rsp), %rbx xorq 400(%rsp), %rbp xorq 408(%rsp), %r9 xorq 416(%rsp), %r8 xorq 424(%rsp), %r11 xorq 432(%rsp), %rbx xorq 440(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 248(%rsp), %r11 xorq %rdx, %r11 movq 296(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 344(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 392(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 440(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 48(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 56(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 64(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 72(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 80(%rsp) movq 272(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 320(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 328(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 376(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 424(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 88(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 96(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 104(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 112(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 120(%rsp) movq 256(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 304(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 352(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 400(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 408(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 128(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 136(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 144(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 152(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 160(%rsp) movq 280(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 288(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 336(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 384(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 432(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 168(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 176(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 184(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 192(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 200(%rsp) movq 264(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 312(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 360(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 368(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 416(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 208(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 216(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 224(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 232(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 240(%rsp) addq $2, %rcx cmpq $23, %rcx jb L_keccak1600_ref$11 movq 8(%rsp), %rcx movq 16(%rsp), %rdx movq 40(%rsp), %rax movq %rax, %rsi shrq $3, %rsi movq $0, %rdi jmp L_keccak1600_ref$9 L_keccak1600_ref$10: movq 48(%rsp,%rdi,8), %r8 movq %r8, (%rcx,%rdi,8) incq %rdi L_keccak1600_ref$9: cmpq %rsi, %rdi jb L_keccak1600_ref$10 addq %rax, %rcx subq %rax, %rdx movq %rcx, 8(%rsp) L_keccak1600_ref$7: cmpq %rax, %rdx jnbe L_keccak1600_ref$8 movq %rdx, 40(%rsp) leaq glob_data + 0(%rip), %rax movq $0, %rcx L_keccak1600_ref$6: movq (%rax,%rcx,8), %r10 movq 48(%rsp), %r9 movq 56(%rsp), %r8 movq 64(%rsp), %r11 movq 72(%rsp), %rbx movq 80(%rsp), %rbp xorq 88(%rsp), %r9 xorq 96(%rsp), %r8 xorq 104(%rsp), %r11 xorq 112(%rsp), %rbx xorq 120(%rsp), %rbp xorq 128(%rsp), %r9 xorq 136(%rsp), %r8 xorq 144(%rsp), %r11 xorq 152(%rsp), %rbx xorq 160(%rsp), %rbp xorq 168(%rsp), %r9 xorq 176(%rsp), %r8 xorq 184(%rsp), %r11 xorq 192(%rsp), %rbx xorq 200(%rsp), %rbp xorq 208(%rsp), %r9 xorq 216(%rsp), %r8 xorq 224(%rsp), %r11 xorq 232(%rsp), %rbx xorq 240(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 48(%rsp), %r11 xorq %rdx, %r11 movq 96(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 144(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 192(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 240(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 248(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 256(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 264(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 272(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 280(%rsp) movq 72(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 120(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 128(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 176(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 224(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 288(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 296(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 304(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 312(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 320(%rsp) movq 56(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 104(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 152(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 200(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 208(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 328(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 336(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 344(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 352(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 360(%rsp) movq 80(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 88(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 136(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 184(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 232(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 368(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 376(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 384(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 392(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 400(%rsp) movq 64(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 112(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 160(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 168(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 216(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 408(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 416(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 424(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 432(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 440(%rsp) movq 8(%rax,%rcx,8), %r10 movq 248(%rsp), %r9 movq 256(%rsp), %r8 movq 264(%rsp), %r11 movq 272(%rsp), %rbx movq 280(%rsp), %rbp xorq 288(%rsp), %r9 xorq 296(%rsp), %r8 xorq 304(%rsp), %r11 xorq 312(%rsp), %rbx xorq 320(%rsp), %rbp xorq 328(%rsp), %r9 xorq 336(%rsp), %r8 xorq 344(%rsp), %r11 xorq 352(%rsp), %rbx xorq 360(%rsp), %rbp xorq 368(%rsp), %r9 xorq 376(%rsp), %r8 xorq 384(%rsp), %r11 xorq 392(%rsp), %rbx xorq 400(%rsp), %rbp xorq 408(%rsp), %r9 xorq 416(%rsp), %r8 xorq 424(%rsp), %r11 xorq 432(%rsp), %rbx xorq 440(%rsp), %rbp movq %r8, %rdx rolq $1, %rdx xorq %rbp, %rdx movq %r11, %rsi rolq $1, %rsi xorq %r9, %rsi movq %rbx, %rdi rolq $1, %rdi xorq %r8, %rdi movq %rbp, %r8 rolq $1, %r8 xorq %r11, %r8 rolq $1, %r9 xorq %rbx, %r9 movq 248(%rsp), %r11 xorq %rdx, %r11 movq 296(%rsp), %rbx xorq %rsi, %rbx rolq $44, %rbx movq 344(%rsp), %rbp xorq %rdi, %rbp rolq $43, %rbp movq 392(%rsp), %r12 xorq %r8, %r12 rolq $21, %r12 movq 440(%rsp), %r13 xorq %r9, %r13 rolq $14, %r13 movq %rbx, %r14 notq %r14 andq %rbp, %r14 xorq %r11, %r14 xorq %r10, %r14 movq %r14, 48(%rsp) movq %rbp, %r10 notq %r10 andq %r12, %r10 xorq %rbx, %r10 movq %r10, 56(%rsp) movq %r12, %r10 notq %r10 andq %r13, %r10 xorq %rbp, %r10 movq %r10, 64(%rsp) movq %r13, %r10 notq %r10 andq %r11, %r10 xorq %r12, %r10 movq %r10, 72(%rsp) notq %r11 andq %rbx, %r11 xorq %r13, %r11 movq %r11, 80(%rsp) movq 272(%rsp), %r10 xorq %r8, %r10 rolq $28, %r10 movq 320(%rsp), %r11 xorq %r9, %r11 rolq $20, %r11 movq 328(%rsp), %r12 xorq %rdx, %r12 rolq $3, %r12 movq 376(%rsp), %rbx xorq %rsi, %rbx rolq $45, %rbx movq 424(%rsp), %rbp xorq %rdi, %rbp rolq $61, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 88(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 96(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 104(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 112(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 120(%rsp) movq 256(%rsp), %r10 xorq %rsi, %r10 rolq $1, %r10 movq 304(%rsp), %r11 xorq %rdi, %r11 rolq $6, %r11 movq 352(%rsp), %r12 xorq %r8, %r12 rolq $25, %r12 movq 400(%rsp), %rbx xorq %r9, %rbx rolq $8, %rbx movq 408(%rsp), %rbp xorq %rdx, %rbp rolq $18, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 128(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 136(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 144(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 152(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 160(%rsp) movq 280(%rsp), %r10 xorq %r9, %r10 rolq $27, %r10 movq 288(%rsp), %r11 xorq %rdx, %r11 rolq $36, %r11 movq 336(%rsp), %r12 xorq %rsi, %r12 rolq $10, %r12 movq 384(%rsp), %rbx xorq %rdi, %rbx rolq $15, %rbx movq 432(%rsp), %rbp xorq %r8, %rbp rolq $56, %rbp movq %r11, %r13 notq %r13 andq %r12, %r13 xorq %r10, %r13 movq %r13, 168(%rsp) movq %r12, %r13 notq %r13 andq %rbx, %r13 xorq %r11, %r13 movq %r13, 176(%rsp) movq %rbx, %r13 notq %r13 andq %rbp, %r13 xorq %r12, %r13 movq %r13, 184(%rsp) movq %rbp, %r12 notq %r12 andq %r10, %r12 xorq %rbx, %r12 movq %r12, 192(%rsp) notq %r10 andq %r11, %r10 xorq %rbp, %r10 movq %r10, 200(%rsp) movq 264(%rsp), %r10 xorq %rdi, %r10 rolq $62, %r10 movq 312(%rsp), %rdi xorq %r8, %rdi rolq $55, %rdi movq 360(%rsp), %r8 xorq %r9, %r8 rolq $39, %r8 movq 368(%rsp), %r9 xorq %rdx, %r9 rolq $41, %r9 movq 416(%rsp), %rdx xorq %rsi, %rdx rolq $2, %rdx movq %rdi, %rsi notq %rsi andq %r8, %rsi xorq %r10, %rsi movq %rsi, 208(%rsp) movq %r8, %rsi notq %rsi andq %r9, %rsi xorq %rdi, %rsi movq %rsi, 216(%rsp) movq %r9, %rsi notq %rsi andq %rdx, %rsi xorq %r8, %rsi movq %rsi, 224(%rsp) movq %rdx, %rsi notq %rsi andq %r10, %rsi xorq %r9, %rsi movq %rsi, 232(%rsp) notq %r10 andq %rdi, %r10 xorq %rdx, %r10 movq %r10, 240(%rsp) addq $2, %rcx cmpq $23, %rcx jb L_keccak1600_ref$6 movq 8(%rsp), %rax movq 40(%rsp), %rcx movq %rcx, %rdx shrq $3, %rdx movq $0, %rsi jmp L_keccak1600_ref$4 L_keccak1600_ref$5: movq 48(%rsp,%rsi,8), %rdi movq %rdi, (%rax,%rsi,8) incq %rsi L_keccak1600_ref$4: cmpq %rdx, %rsi jb L_keccak1600_ref$5 shlq $3, %rsi jmp L_keccak1600_ref$2 L_keccak1600_ref$3: movb 48(%rsp,%rsi), %dl movb %dl, (%rax,%rsi) incq %rsi L_keccak1600_ref$2: cmpq %rcx, %rsi jb L_keccak1600_ref$3 ret .data .p2align 5 _glob_data: glob_data: .byte 1 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -126 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -118 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -117 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte 9 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -118 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -120 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 9 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte -117 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -119 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 3 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 2 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 10 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte 10 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -127 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128 .byte -128 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 0 .byte -128 .byte 1 .byte 0 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte 0 .byte 8 .byte -128 .byte 0 .byte -128 .byte 0 .byte 0 .byte 0 .byte -128
VIAAN96/Unlock-Vivo-Bootloader-Garbage
7,083
mtk-client/src/da_xml/common/start.S
.syntax unified .code 32 .global start .section .text.start start: #add r3, pc, #1 #bx r3 .global apmcu_dcache_clean_invalidate .section .text .type apmcu_dcache_clean_invalidate,%function apmcu_dcache_clean_invalidate: push {r4,r5,r7,r9,r10,r11} dmb /* ensure ordering with previous memory accesses */ mrc p15, 1, r0, c0, c0, 1 /* read clidr */ ands r3, r0, #0x7000000 /* extract loc from clidr */ mov r3, r3, lsr #23 /* left align loc bit field */ beq ci_finished /* if loc is 0, then no need to clean */ mov r10, #0 /* start clean at cache level 0 */ ci_loop1: add r2, r10, r10, lsr #1 /* work out 3x current cache level */ mov r1, r0, lsr r2 /* extract cache type bits from clidr */ and r1, r1, #7 /* mask of the bits for current cache only */ cmp r1, #2 /* see what cache we have at this level */ blt ci_skip /* skip if no cache, or just i-cache */ mcr p15, 2, r10, c0, c0, 0 /* select current cache level in cssr */ isb /* isb to sych the new cssr&csidr */ mrc p15, 1, r1, c0, c0, 0 /* read the new csidr */ and r2, r1, #7 /* extract the length of the cache lines */ add r2, r2, #4 /* add 4 (line length offset) */ ldr r4, =0x3ff ands r4, r4, r1, lsr #3 /* find maximum number on the way size */ clz r5, r4 /* find bit position of way size increment */ ldr r7, =0x7fff ands r7, r7, r1, lsr #13 /* extract max number of the index size */ ci_loop2: mov r9, r4 /* create working copy of max way size */ ci_loop3: orr r11, r10, r9, lsl r5 /* factor way and cache number into r11 */ orr r11, r11, r7, lsl r2 /* factor index number into r11 */ mcr p15, 0, r11, c7, c14, 2 /* clean & invalidate by set/way */ subs r9, r9, #1 /* decrement the way */ bge ci_loop3 subs r7, r7, #1 /* decrement the index */ bge ci_loop2 ci_skip: add r10, r10, #2 /* increment cache number */ cmp r3, r10 bgt ci_loop1 ci_finished: mov r10, #0 /* swith back to cache level 0 */ mcr p15, 2, r10, c0, c0, 0 /* select current cache level in cssr */ dsb isb pop {r4,r5,r7,r9,r10,r11} bx lr .global apmcu_dcache_invalidate .section .text .type apmcu_dcache_invalidate,%function apmcu_dcache_invalidate: push {r4,r5,r7,r9,r10,r11} dmb /* ensure ordering with previous memory accesses */ mrc p15, 1, r0, c0, c0, 1 /* read clidr */ ands r3, r0, #0x7000000 /* extract loc from clidr */ mov r3, r3, lsr #23 /* left align loc bit field */ beq cii_finished /* if loc is 0, then no need to clean */ mov r10, #0 /* start clean at cache level 0 */ cii_loop1: add r2, r10, r10, lsr #1 /* work out 3x current cache level */ mov r1, r0, lsr r2 /* extract cache type bits from clidr */ and r1, r1, #7 /* mask of the bits for current cache only */ cmp r1, #2 /* see what cache we have at this level */ blt cii_skip /* skip if no cache, or just i-cache */ mcr p15, 2, r10, c0, c0, 0 /* select current cache level in cssr */ isb /* isb to sych the new cssr&csidr */ mrc p15, 1, r1, c0, c0, 0 /* read the new csidr */ and r2, r1, #7 /* extract the length of the cache lines */ add r2, r2, #4 /* add 4 (line length offset) */ ldr r4, =0x3ff ands r4, r4, r1, lsr #3 /* find maximum number on the way size */ clz r5, r4 /* find bit position of way size increment */ ldr r7, =0x7fff ands r7, r7, r1, lsr #13 /* extract max number of the index size */ cii_loop2: mov r9, r4 /* create working copy of max way size */ cii_loop3: orr r11, r10, r9, lsl r5 /* factor way and cache number into r11 */ orr r11, r11, r7, lsl r2 /* factor index number into r11 */ mcr p15, 0, r11, c7, c6, 2 /* invalidate by set/way */ subs r9, r9, #1 /* decrement the way */ bge cii_loop3 subs r7, r7, #1 /* decrement the index */ bge cii_loop2 cii_skip: add r10, r10, #2 /* increment cache number */ cmp r3, r10 bgt cii_loop1 cii_finished: mov r10, #0 /* swith back to cache level 0 */ mcr p15, 2, r10, c0, c0, 0 /* select current cache level in cssr */ dsb isb pop {r4,r5,r7,r9,r10,r11} bx lr .global cache_init .section .text .type cache_init,%function cache_init: PUSH {R4-R11,LR} MOV R7, R0 MRS R12, CPSR CPSID AIF TST R7, #2 BEQ mmt MRC p15, 0, R0,c1,c0, 0 TST R0, #4 BEQ mma BIC R0, R0, #4 MCR p15, 0, R0,c1,c0, 0 BL apmcu_dcache_clean_invalidate B mmt mma: BL apmcu_dcache_invalidate mmt: TST R7, #1 BEQ mml MRC p15, 0, R0,c1,c0, 0 BIC R0, R0, #0x1000 MCR p15, 0, R0,c1,c0, 0 mml: MOV R0, #0 MCR p15, 0, R0,c7,c5, 0 MSR CPSR_cf, R12 POP {R4-R11,PC} .global cache_close .section .text .type cache_close,%function cache_close: PUSH {R4-R11,LR} MOV R7, R0 MRS R12, CPSR CPSID AIF TST R7, #2 BEQ cci MRC p15, 0, R0,c1,c0, 0 TST R0, #4 BNE cci BL apmcu_dcache_invalidate MRC p15, 0, R0,c1,c0, 0 ORR R0, R0, #4 MCR p15, 0, R0,c1,c0, 0 cci: TST R7, #1 BEQ cct MOV R0, #0 MCR p15, 0, R0,c7,c5, 0 MRC p15, 0, R0,c1,c0, 0 ORR R0, R0, #0x1000 MCR p15, 0, R0,c1,c0, 0 cct: MSR CPSR_cf, R12 POP {R4-R11,PC}
VIAAN96/Unlock-Vivo-Bootloader-Garbage
7,195
mtk-client/src/da_x/common/start.S
/* Copyright 2024 (c) B.Kerler */ /* Use of this source code is governed by a GPLv3 license, see LICENSE.txt. */ .syntax unified .code 32 .global start .section .text.start start: add r3, pc, #1 bx r3 .global apmcu_dcache_clean_invalidate .section .text .type apmcu_dcache_clean_invalidate,%function apmcu_dcache_clean_invalidate: push {r4,r5,r7,r9,r10,r11} dmb /* ensure ordering with previous memory accesses */ mrc p15, 1, r0, c0, c0, 1 /* read clidr */ ands r3, r0, #0x7000000 /* extract loc from clidr */ mov r3, r3, lsr #23 /* left align loc bit field */ beq ci_finished /* if loc is 0, then no need to clean */ mov r10, #0 /* start clean at cache level 0 */ ci_loop1: add r2, r10, r10, lsr #1 /* work out 3x current cache level */ mov r1, r0, lsr r2 /* extract cache type bits from clidr */ and r1, r1, #7 /* mask of the bits for current cache only */ cmp r1, #2 /* see what cache we have at this level */ blt ci_skip /* skip if no cache, or just i-cache */ mcr p15, 2, r10, c0, c0, 0 /* select current cache level in cssr */ isb /* isb to sych the new cssr&csidr */ mrc p15, 1, r1, c0, c0, 0 /* read the new csidr */ and r2, r1, #7 /* extract the length of the cache lines */ add r2, r2, #4 /* add 4 (line length offset) */ ldr r4, =0x3ff ands r4, r4, r1, lsr #3 /* find maximum number on the way size */ clz r5, r4 /* find bit position of way size increment */ ldr r7, =0x7fff ands r7, r7, r1, lsr #13 /* extract max number of the index size */ ci_loop2: mov r9, r4 /* create working copy of max way size */ ci_loop3: orr r11, r10, r9, lsl r5 /* factor way and cache number into r11 */ orr r11, r11, r7, lsl r2 /* factor index number into r11 */ mcr p15, 0, r11, c7, c14, 2 /* clean & invalidate by set/way */ subs r9, r9, #1 /* decrement the way */ bge ci_loop3 subs r7, r7, #1 /* decrement the index */ bge ci_loop2 ci_skip: add r10, r10, #2 /* increment cache number */ cmp r3, r10 bgt ci_loop1 ci_finished: mov r10, #0 /* swith back to cache level 0 */ mcr p15, 2, r10, c0, c0, 0 /* select current cache level in cssr */ dsb isb pop {r4,r5,r7,r9,r10,r11} bx lr .global apmcu_dcache_invalidate .section .text .type apmcu_dcache_invalidate,%function apmcu_dcache_invalidate: push {r4,r5,r7,r9,r10,r11} dmb /* ensure ordering with previous memory accesses */ mrc p15, 1, r0, c0, c0, 1 /* read clidr */ ands r3, r0, #0x7000000 /* extract loc from clidr */ mov r3, r3, lsr #23 /* left align loc bit field */ beq cii_finished /* if loc is 0, then no need to clean */ mov r10, #0 /* start clean at cache level 0 */ cii_loop1: add r2, r10, r10, lsr #1 /* work out 3x current cache level */ mov r1, r0, lsr r2 /* extract cache type bits from clidr */ and r1, r1, #7 /* mask of the bits for current cache only */ cmp r1, #2 /* see what cache we have at this level */ blt cii_skip /* skip if no cache, or just i-cache */ mcr p15, 2, r10, c0, c0, 0 /* select current cache level in cssr */ isb /* isb to sych the new cssr&csidr */ mrc p15, 1, r1, c0, c0, 0 /* read the new csidr */ and r2, r1, #7 /* extract the length of the cache lines */ add r2, r2, #4 /* add 4 (line length offset) */ ldr r4, =0x3ff ands r4, r4, r1, lsr #3 /* find maximum number on the way size */ clz r5, r4 /* find bit position of way size increment */ ldr r7, =0x7fff ands r7, r7, r1, lsr #13 /* extract max number of the index size */ cii_loop2: mov r9, r4 /* create working copy of max way size */ cii_loop3: orr r11, r10, r9, lsl r5 /* factor way and cache number into r11 */ orr r11, r11, r7, lsl r2 /* factor index number into r11 */ mcr p15, 0, r11, c7, c6, 2 /* invalidate by set/way */ subs r9, r9, #1 /* decrement the way */ bge cii_loop3 subs r7, r7, #1 /* decrement the index */ bge cii_loop2 cii_skip: add r10, r10, #2 /* increment cache number */ cmp r3, r10 bgt cii_loop1 cii_finished: mov r10, #0 /* swith back to cache level 0 */ mcr p15, 2, r10, c0, c0, 0 /* select current cache level in cssr */ dsb isb pop {r4,r5,r7,r9,r10,r11} bx lr .global cache_init .section .text .type cache_init,%function cache_init: PUSH {R4-R11,LR} MOV R7, R0 MRS R12, CPSR CPSID AIF TST R7, #2 BEQ mmt MRC p15, 0, R0,c1,c0, 0 TST R0, #4 BEQ mma BIC R0, R0, #4 MCR p15, 0, R0,c1,c0, 0 BL apmcu_dcache_clean_invalidate B mmt mma: BL apmcu_dcache_invalidate mmt: TST R7, #1 BEQ mml MRC p15, 0, R0,c1,c0, 0 BIC R0, R0, #0x1000 MCR p15, 0, R0,c1,c0, 0 mml: MOV R0, #0 MCR p15, 0, R0,c7,c5, 0 MSR CPSR_cf, R12 POP {R4-R11,PC} .global cache_close .section .text .type cache_close,%function cache_close: PUSH {R4-R11,LR} MOV R7, R0 MRS R12, CPSR CPSID AIF TST R7, #2 BEQ cci MRC p15, 0, R0,c1,c0, 0 TST R0, #4 BNE cci BL apmcu_dcache_invalidate MRC p15, 0, R0,c1,c0, 0 ORR R0, R0, #4 MCR p15, 0, R0,c1,c0, 0 cci: TST R7, #1 BEQ cct MOV R0, #0 MCR p15, 0, R0,c7,c5, 0 MRC p15, 0, R0,c1,c0, 0 ORR R0, R0, #0x1000 MCR p15, 0, R0,c1,c0, 0 cct: MSR CPSR_cf, R12 POP {R4-R11,PC}
vincent-sjh/test_undefined-os
2,544
.arceos/tools/raspi4/chainloader/src/_arch/aarch64/cpu/boot.s
// SPDX-License-Identifier: MIT OR Apache-2.0 // // Copyright (c) 2021-2022 Andre Richter <andre.o.richter@gmail.com> //-------------------------------------------------------------------------------------------------- // Definitions //-------------------------------------------------------------------------------------------------- // Load the address of a symbol into a register, PC-relative. // // The symbol must lie within +/- 4 GiB of the Program Counter. // // # Resources // // - https://sourceware.org/binutils/docs-2.36/as/AArch64_002dRelocations.html .macro ADR_REL register, symbol adrp \register, \symbol add \register, \register, #:lo12:\symbol .endm // Load the address of a symbol into a register, absolute. // // # Resources // // - https://sourceware.org/binutils/docs-2.36/as/AArch64_002dRelocations.html .macro ADR_ABS register, symbol movz \register, #:abs_g2:\symbol movk \register, #:abs_g1_nc:\symbol movk \register, #:abs_g0_nc:\symbol .endm //-------------------------------------------------------------------------------------------------- // Public Code //-------------------------------------------------------------------------------------------------- .section .text._start //------------------------------------------------------------------------------ // fn _start() //------------------------------------------------------------------------------ _start: // Only proceed on the boot core. Park it otherwise. mrs x0, MPIDR_EL1 and x0, x0, {CONST_CORE_ID_MASK} ldr x1, BOOT_CORE_ID // provided by bsp/__board_name__/cpu.rs cmp x0, x1 b.ne .L_parking_loop // If execution reaches here, it is the boot core. // Initialize DRAM. ADR_ABS x0, __bss_start ADR_ABS x1, __bss_end_exclusive .L_bss_init_loop: cmp x0, x1 b.eq .L_relocate_binary stp xzr, xzr, [x0], #16 b .L_bss_init_loop // Next, relocate the binary. .L_relocate_binary: ADR_REL x0, __binary_nonzero_start // The address the binary got loaded to. ADR_ABS x1, __binary_nonzero_start // The address the binary was linked to. ADR_ABS x2, __binary_nonzero_end_exclusive .L_copy_loop: ldr x3, [x0], #8 str x3, [x1], #8 cmp x1, x2 b.lo .L_copy_loop // Prepare the jump to Rust code. // Set the stack pointer. ADR_ABS x0, __boot_core_stack_end_exclusive mov sp, x0 // Jump to the relocated Rust code. ADR_ABS x1, _start_rust br x1 // Infinitely wait for events (aka "park the core"). .L_parking_loop: wfe b .L_parking_loop .size _start, . - _start .type _start, function .global _start
vincent-sjh/test_undefined-os
2,001
.arceos/modules/axhal/linker.lds.S
OUTPUT_ARCH(%ARCH%) BASE_ADDRESS = %KERNEL_BASE%; ENTRY(_start) SECTIONS { . = BASE_ADDRESS; _skernel = .; .text : ALIGN(4K) { _stext = .; *(.text.boot) *(.text .text.*) . = ALIGN(4K); _etext = .; } _srodata = .; .rodata : ALIGN(4K) { *(.rodata .rodata.*) *(.srodata .srodata.*) *(.sdata2 .sdata2.*) } .init_array : ALIGN(0x10) { __init_array_start = .; *(.init_array .init_array.*) __init_array_end = .; } . = ALIGN(4K); _erodata = .; .data : ALIGN(4K) { _sdata = .; *(.data.boot_page_table) . = ALIGN(4K); *(.data .data.*) *(.sdata .sdata.*) *(.got .got.*) } .tdata : ALIGN(0x10) { _stdata = .; *(.tdata .tdata.*) _etdata = .; } .tbss : ALIGN(0x10) { _stbss = .; *(.tbss .tbss.*) *(.tcommon) _etbss = .; } . = ALIGN(4K); _percpu_start = .; _percpu_end = _percpu_start + SIZEOF(.percpu); .percpu 0x0 : AT(_percpu_start) { _percpu_load_start = .; *(.percpu .percpu.*) _percpu_load_end = .; . = _percpu_load_start + ALIGN(64) * %SMP%; } . = _percpu_end; . = ALIGN(4K); _edata = .; .bss : AT(.) ALIGN(4K) { boot_stack = .; *(.bss.stack) . = ALIGN(4K); boot_stack_top = .; _sbss = .; *(.bss .bss.*) *(.sbss .sbss.*) *(COMMON) . = ALIGN(4K); _ebss = .; } _ekernel = .; /DISCARD/ : { *(.comment) *(.gnu*) *(.note*) *(.eh_frame*) } } SECTIONS { linkme_IRQ : { *(linkme_IRQ) } linkm2_IRQ : { *(linkm2_IRQ) } linkme_PAGE_FAULT : { *(linkme_PAGE_FAULT) } linkm2_PAGE_FAULT : { *(linkm2_PAGE_FAULT) } linkme_SYSCALL : { *(linkme_SYSCALL) } linkm2_SYSCALL : { *(linkm2_SYSCALL) } axns_resource : { *(axns_resource) } } INSERT AFTER .tbss;
vincent-sjh/test_undefined-os
1,791
.arceos/modules/axhal/src/arch/loongarch64/trap.S
.macro SAVE_REGS, from_user move $t0, $sp .if \from_user == 1 csrrd $sp, KSAVE_KSP // restore kernel sp addi.d $sp, $sp, -{trapframe_size} STD $tp, $sp, 2 STD $r21, $sp, 21 csrrd $tp, KSAVE_TP csrrd $r21, KSAVE_R21 .else addi.d $sp, $sp, -{trapframe_size} .endif STD $t0, $sp, 3 csrrd $t0, KSAVE_TEMP PUSH_GENERAL_REGS csrrd $t1, LA_CSR_PRMD csrrd $t2, LA_CSR_ERA STD $t1, $sp, 32 // prmd STD $t2, $sp, 33 // era .endm .macro RESTORE_REGS, from_user .if \from_user == 1 csrwr $tp, KSAVE_TP csrwr $r21, KSAVE_R21 LDD $tp, $sp, 2 LDD $r21, $sp, 21 addi.d $t1, $sp, {trapframe_size} csrwr $t1, KSAVE_KSP // save kernel sp .endif LDD $t1, $sp, 33 // era LDD $t2, $sp, 32 // prmd csrwr $t1, LA_CSR_ERA csrwr $t2, LA_CSR_PRMD POP_GENERAL_REGS LDD $sp, $sp, 3 .endm .section .text .balign 4096 .global exception_entry_base exception_entry_base: csrwr $t0, KSAVE_TEMP csrrd $t0, LA_CSR_PRMD andi $t0, $t0, 0x3 bnez $t0, .Lfrom_userspace .Lfrom_kernel: SAVE_REGS 0 move $a0, $sp addi.d $a1, $zero, 0 bl loongarch64_trap_handler RESTORE_REGS 0 ertn .Lfrom_userspace: SAVE_REGS 1 move $a0, $sp addi.d $a1, $zero, 1 bl loongarch64_trap_handler RESTORE_REGS 1 ertn .section .text .balign 4096 .global handle_tlb_refill handle_tlb_refill: csrwr $t0, LA_CSR_TLBRSAVE csrrd $t0, LA_CSR_PGD lddir $t0, $t0, 3 lddir $t0, $t0, 2 lddir $t0, $t0, 1 ldpte $t0, 0 ldpte $t0, 1 tlbfill csrrd $t0, LA_CSR_TLBRSAVE ertn
vincent-sjh/test_undefined-os
2,616
.arceos/modules/axhal/src/arch/aarch64/trap.S
.macro SAVE_REGS sub sp, sp, 34 * 8 stp x0, x1, [sp] stp x2, x3, [sp, 2 * 8] stp x4, x5, [sp, 4 * 8] stp x6, x7, [sp, 6 * 8] stp x8, x9, [sp, 8 * 8] stp x10, x11, [sp, 10 * 8] stp x12, x13, [sp, 12 * 8] stp x14, x15, [sp, 14 * 8] stp x16, x17, [sp, 16 * 8] stp x18, x19, [sp, 18 * 8] stp x20, x21, [sp, 20 * 8] stp x22, x23, [sp, 22 * 8] stp x24, x25, [sp, 24 * 8] stp x26, x27, [sp, 26 * 8] stp x28, x29, [sp, 28 * 8] mrs x9, sp_el0 mrs x10, elr_el1 mrs x11, spsr_el1 stp x30, x9, [sp, 30 * 8] stp x10, x11, [sp, 32 * 8] # We may have interrupted userspace, or a guest, or exit-from or # return-to either of those. So we can't trust sp_el0, and need to # restore it. bl {cache_current_task_ptr} .endm .macro RESTORE_REGS ldp x10, x11, [sp, 32 * 8] ldp x30, x9, [sp, 30 * 8] msr sp_el0, x9 msr elr_el1, x10 msr spsr_el1, x11 ldp x28, x29, [sp, 28 * 8] ldp x26, x27, [sp, 26 * 8] ldp x24, x25, [sp, 24 * 8] ldp x22, x23, [sp, 22 * 8] ldp x20, x21, [sp, 20 * 8] ldp x18, x19, [sp, 18 * 8] ldp x16, x17, [sp, 16 * 8] ldp x14, x15, [sp, 14 * 8] ldp x12, x13, [sp, 12 * 8] ldp x10, x11, [sp, 10 * 8] ldp x8, x9, [sp, 8 * 8] ldp x6, x7, [sp, 6 * 8] ldp x4, x5, [sp, 4 * 8] ldp x2, x3, [sp, 2 * 8] ldp x0, x1, [sp] add sp, sp, 34 * 8 .endm .macro INVALID_EXCP, kind, source .p2align 7 SAVE_REGS mov x0, sp mov x1, \kind mov x2, \source bl invalid_exception b .Lexception_return .endm .macro HANDLE_SYNC .p2align 7 SAVE_REGS mov x0, sp bl handle_sync_exception b .Lexception_return .endm .macro HANDLE_IRQ .p2align 7 SAVE_REGS mov x0, sp bl handle_irq_exception b .Lexception_return .endm .section .text .p2align 11 .global exception_vector_base exception_vector_base: // current EL, with SP_EL0 INVALID_EXCP 0 0 INVALID_EXCP 1 0 INVALID_EXCP 2 0 INVALID_EXCP 3 0 // current EL, with SP_ELx HANDLE_SYNC HANDLE_IRQ INVALID_EXCP 2 1 INVALID_EXCP 3 1 // lower EL, aarch64 HANDLE_SYNC HANDLE_IRQ INVALID_EXCP 2 2 INVALID_EXCP 3 2 // lower EL, aarch32 INVALID_EXCP 0 3 INVALID_EXCP 1 3 INVALID_EXCP 2 3 INVALID_EXCP 3 3 .Lexception_return: RESTORE_REGS eret
vincent-sjh/test_undefined-os
2,358
.arceos/modules/axhal/src/arch/riscv/trap.S
.macro SAVE_REGS, from_user addi sp, sp, -{trapframe_size} PUSH_GENERAL_REGS csrr t0, sepc csrr t1, sstatus csrrw t2, sscratch, zero // save sscratch (sp) and zero it STR t0, sp, 31 // tf.sepc STR t1, sp, 32 // tf.sstatus STR t2, sp, 1 // tf.regs.sp .if \from_user == 1 LDR t0, sp, 2 // load supervisor gp LDR t1, sp, 3 // load supervisor tp STR gp, sp, 2 // save user gp and tp STR tp, sp, 3 mv gp, t0 mv tp, t1 .endif .endm .macro RESTORE_REGS, from_user .if \from_user == 1 LDR t1, sp, 2 // load user gp and tp LDR t0, sp, 3 STR gp, sp, 2 // save supervisor gp STR tp, sp, 3 // save supervisor gp and tp mv gp, t1 mv tp, t0 addi t0, sp, {trapframe_size} // put supervisor sp to scratch csrw sscratch, t0 .endif // restore sepc LDR t0, sp, 31 csrw sepc, t0 // restore sstatus, but don't change FS LDR t0, sp, 32 // t0 = sstatus to restore csrr t1, sstatus // t1 = current sstatus li t2, 0x6000 // t2 = mask for FS and t1, t1, t2 // t1 = current FS not t2, t2 // t2 = ~(mask for FS) and t0, t0, t2 // t0 = sstatus to restore(cleared FS) or t0, t0, t1 // t0 = sstatus to restore with current FS csrw sstatus, t0 // restore sstatus POP_GENERAL_REGS LDR sp, sp, 1 // load sp from tf.regs.sp .endm .section .text .balign 4 .global trap_vector_base trap_vector_base: // sscratch == 0: trap from S mode // sscratch != 0: trap from U mode csrrw sp, sscratch, sp // swap sscratch and sp bnez sp, .Ltrap_entry_u csrr sp, sscratch // put supervisor sp back j .Ltrap_entry_s .Ltrap_entry_s: SAVE_REGS 0 mv a0, sp li a1, 0 call riscv_trap_handler RESTORE_REGS 0 sret .Ltrap_entry_u: SAVE_REGS 1 mv a0, sp li a1, 1 call riscv_trap_handler RESTORE_REGS 1 sret
vincent-sjh/test_undefined-os
1,505
.arceos/modules/axhal/src/arch/x86_64/trap.S
.equ NUM_INT, 256 .altmacro .macro DEF_HANDLER, i .Ltrap_handler_\i: .if \i == 8 || (\i >= 10 && \i <= 14) || \i == 17 # error code pushed by CPU push \i # interrupt vector jmp .Ltrap_common .else push 0 # fill in error code in TrapFrame push \i # interrupt vector jmp .Ltrap_common .endif .endm .macro DEF_TABLE_ENTRY, i .quad .Ltrap_handler_\i .endm .section .text .code64 _trap_handlers: .set i, 0 .rept NUM_INT DEF_HANDLER %i .set i, i + 1 .endr .Ltrap_common: test byte ptr [rsp + 3 * 8], 3 # swap GS if it comes from user space jz 1f swapgs 1: push r15 push r14 push r13 push r12 push r11 push r10 push r9 push r8 push rdi push rsi push rbp push rbx push rdx push rcx push rax mov rdi, rsp call x86_trap_handler pop rax pop rcx pop rdx pop rbx pop rbp pop rsi pop rdi pop r8 pop r9 pop r10 pop r11 pop r12 pop r13 pop r14 pop r15 test byte ptr [rsp + 3 * 8], 3 # swap GS back if return to user space jz 2f swapgs 2: add rsp, 16 # pop vector, error_code iretq .section .rodata .global trap_handler_table trap_handler_table: .set i, 0 .rept NUM_INT DEF_TABLE_ENTRY %i .set i, i + 1 .endr
vincent-sjh/test_undefined-os
1,339
.arceos/modules/axhal/src/arch/x86_64/syscall.S
.section .text .code64 syscall_entry: swapgs // switch to kernel gs mov gs:[offset __PERCPU_USER_RSP_OFFSET], rsp // save user rsp mov rsp, gs:[offset __PERCPU_TSS + {tss_rsp0_offset}] // switch to kernel stack sub rsp, 8 // skip user ss push gs:[offset __PERCPU_USER_RSP_OFFSET] // user rsp push r11 // rflags mov [rsp - 2 * 8], rcx // rip sub rsp, 4 * 8 // skip until general registers push r15 push r14 push r13 push r12 push r11 push r10 push r9 push r8 push rdi push rsi push rbp push rbx push rdx push rcx push rax mov rdi, rsp call x86_syscall_handler pop rax pop rcx pop rdx pop rbx pop rbp pop rsi pop rdi pop r8 pop r9 pop r10 pop r11 pop r12 pop r13 pop r14 pop r15 add rsp, 7 * 8 mov rcx, [rsp - 5 * 8] // rip mov r11, [rsp - 3 * 8] // rflags mov rsp, [rsp - 2 * 8] // user rsp swapgs sysretq
vincent-sjh/test_undefined-os
1,965
.arceos/modules/axhal/src/platform/x86_pc/ap_start.S
# Boot application processors into the protected mode. # Each non-boot CPU ("AP") is started up in response to a STARTUP # IPI from the boot CPU. Section B.4.2 of the Multi-Processor # Specification says that the AP will start in real mode with CS:IP # set to XY00:0000, where XY is an 8-bit value sent with the # STARTUP. Thus this code must start at a 4096-byte boundary. # # Because this code sets DS to zero, it must sit # at an address in the low 2^16 bytes. .equ pa_ap_start32, ap_start32 - ap_start + {start_page_paddr} .equ pa_ap_gdt, .Lap_tmp_gdt - ap_start + {start_page_paddr} .equ pa_ap_gdt_desc, .Lap_tmp_gdt_desc - ap_start + {start_page_paddr} .equ stack_ptr, {start_page_paddr} + 0xff0 .equ entry_ptr, {start_page_paddr} + 0xff8 # 0x6000 .section .text .code16 .p2align 12 .global ap_start ap_start: cli wbinvd xor ax, ax mov ds, ax mov es, ax mov ss, ax mov fs, ax mov gs, ax # load the 64-bit GDT lgdt [pa_ap_gdt_desc] # switch to protected-mode mov eax, cr0 or eax, (1 << 0) mov cr0, eax # far jump to 32-bit code. 0x8 is code32 segment selector ljmp 0x8, offset pa_ap_start32 .code32 ap_start32: mov esp, [stack_ptr] mov eax, [entry_ptr] jmp eax .balign 8 # .type multiboot_header, STT_OBJECT .Lap_tmp_gdt_desc: .short .Lap_tmp_gdt_end - .Lap_tmp_gdt - 1 # limit .long pa_ap_gdt # base .balign 16 .Lap_tmp_gdt: .quad 0x0000000000000000 # 0x00: null .quad 0x00cf9b000000ffff # 0x08: code segment (base=0, limit=0xfffff, type=32bit code exec/read, DPL=0, 4k) .quad 0x00af9b000000ffff # 0x10: code segment (base=0, limit=0xfffff, type=64bit code exec/read, DPL=0, 4k) .quad 0x00cf93000000ffff # 0x18: data segment (base=0, limit=0xfffff, type=32bit data read/write, DPL=0, 4k) .Lap_tmp_gdt_end: # 0x7000 .p2align 12 .global ap_end ap_end:
vincent-sjh/test_undefined-os
4,325
.arceos/modules/axhal/src/platform/x86_pc/multiboot.S
# Bootstrapping from 32-bit with the Multiboot specification. # See https://www.gnu.org/software/grub/manual/multiboot/multiboot.html .section .text.boot .code32 .global _start _start: mov edi, eax # arg1: magic: 0x2BADB002 mov esi, ebx # arg2: multiboot info jmp bsp_entry32 .balign 4 .type multiboot_header, STT_OBJECT multiboot_header: .int {mb_hdr_magic} # magic: 0x1BADB002 .int {mb_hdr_flags} # flags .int -({mb_hdr_magic} + {mb_hdr_flags}) # checksum .int multiboot_header - {offset} # header_addr .int _skernel - {offset} # load_addr .int _edata - {offset} # load_end .int _ebss - {offset} # bss_end_addr .int _start - {offset} # entry_addr # Common code in 32-bit, prepare states to enter 64-bit. .macro ENTRY32_COMMON # set data segment selectors mov ax, 0x18 mov ss, ax mov ds, ax mov es, ax mov fs, ax mov gs, ax # set PAE, PGE bit in CR4 mov eax, {cr4} mov cr4, eax # load the temporary page table lea eax, [.Ltmp_pml4 - {offset}] mov cr3, eax # set LME, NXE bit in IA32_EFER mov ecx, {efer_msr} mov edx, 0 mov eax, {efer} wrmsr # set protected mode, write protect, paging bit in CR0 mov eax, {cr0} mov cr0, eax .endm # Common code in 64-bit .macro ENTRY64_COMMON # clear segment selectors xor ax, ax mov ss, ax mov ds, ax mov es, ax mov fs, ax mov gs, ax .endm .code32 bsp_entry32: lgdt [.Ltmp_gdt_desc - {offset}] # load the temporary GDT ENTRY32_COMMON ljmp 0x10, offset bsp_entry64 - {offset} # 0x10 is code64 segment .code32 .global ap_entry32 ap_entry32: ENTRY32_COMMON ljmp 0x10, offset ap_entry64 - {offset} # 0x10 is code64 segment .code64 bsp_entry64: ENTRY64_COMMON # set RSP to boot stack movabs rsp, offset {boot_stack} add rsp, {boot_stack_size} # call rust_entry(magic, mbi) movabs rax, offset {entry} call rax jmp .Lhlt .code64 ap_entry64: ENTRY64_COMMON # set RSP to high address (already set in ap_start.S) mov rax, {offset} add rsp, rax # call rust_entry_secondary(magic) mov rdi, {mb_magic} movabs rax, offset {entry_secondary} call rax jmp .Lhlt .Lhlt: hlt jmp .Lhlt .section .rodata .balign 8 .Ltmp_gdt_desc: .short .Ltmp_gdt_end - .Ltmp_gdt - 1 # limit .long .Ltmp_gdt - {offset} # base .section .data .balign 16 .Ltmp_gdt: .quad 0x0000000000000000 # 0x00: null .quad 0x00cf9b000000ffff # 0x08: code segment (base=0, limit=0xfffff, type=32bit code exec/read, DPL=0, 4k) .quad 0x00af9b000000ffff # 0x10: code segment (base=0, limit=0xfffff, type=64bit code exec/read, DPL=0, 4k) .quad 0x00cf93000000ffff # 0x18: data segment (base=0, limit=0xfffff, type=32bit data read/write, DPL=0, 4k) .Ltmp_gdt_end: .balign 4096 .Ltmp_pml4: # 0x0000_0000 ~ 0xffff_ffff .quad .Ltmp_pdpt_low - {offset} + 0x3 # PRESENT | WRITABLE | paddr(tmp_pdpt) .zero 8 * 255 # 0xffff_8000_0000_0000 ~ 0xffff_8000_ffff_ffff .quad .Ltmp_pdpt_high - {offset} + 0x3 # PRESENT | WRITABLE | paddr(tmp_pdpt) .zero 8 * 255 # FIXME: may not work on macOS using hvf as the CPU does not support 1GB page (pdpe1gb) .Ltmp_pdpt_low: .quad 0x0000 | 0x83 # PRESENT | WRITABLE | HUGE_PAGE | paddr(0x0) .quad 0x40000000 | 0x83 # PRESENT | WRITABLE | HUGE_PAGE | paddr(0x4000_0000) .quad 0x80000000 | 0x83 # PRESENT | WRITABLE | HUGE_PAGE | paddr(0x8000_0000) .quad 0xc0000000 | 0x83 # PRESENT | WRITABLE | HUGE_PAGE | paddr(0xc000_0000) .zero 8 * 508 .Ltmp_pdpt_high: .quad 0x0000 | 0x83 # PRESENT | WRITABLE | HUGE_PAGE | paddr(0x0) .quad 0x40000000 | 0x83 # PRESENT | WRITABLE | HUGE_PAGE | paddr(0x4000_0000) .quad 0x80000000 | 0x83 # PRESENT | WRITABLE | HUGE_PAGE | paddr(0x8000_0000) .quad 0xc0000000 | 0x83 # PRESENT | WRITABLE | HUGE_PAGE | paddr(0xc000_0000) .zero 8 * 508
vinceruizz/cme495-team9-beanbag
8,560
Core/Startup/startup_stm32f030c6tx.s
/** ****************************************************************************** * @file startup_stm32f030x6.s * @author MCD Application Team * @brief STM32F030x4/STM32F030x6 devices vector table for GCC toolchain. * This module performs: * - Set the initial SP * - Set the initial PC == Reset_Handler, * - Set the vector table entries with the exceptions ISR address * - Branches to main in the C library (which eventually * calls main()). * After Reset the Cortex-M0 processor is in Thread mode, * priority is Privileged, and the Stack is set to Main. ****************************************************************************** * @attention * * Copyright (c) 2016 STMicroelectronics. * All rights reserved. * * This software is licensed under terms that can be found in the LICENSE file * in the root directory of this software component. * If no LICENSE file comes with this software, it is provided AS-IS. * ****************************************************************************** */ .syntax unified .cpu cortex-m0 .fpu softvfp .thumb .global g_pfnVectors .global Default_Handler /* start address for the initialization values of the .data section. defined in linker script */ .word _sidata /* start address for the .data section. defined in linker script */ .word _sdata /* end address for the .data section. defined in linker script */ .word _edata /* start address for the .bss section. defined in linker script */ .word _sbss /* end address for the .bss section. defined in linker script */ .word _ebss .section .text.Reset_Handler .weak Reset_Handler .type Reset_Handler, %function Reset_Handler: ldr r0, =_estack mov sp, r0 /* set stack pointer */ /* Call the clock system initialization function.*/ bl SystemInit /* Copy the data segment initializers from flash to SRAM */ ldr r0, =_sdata ldr r1, =_edata ldr r2, =_sidata movs r3, #0 b LoopCopyDataInit CopyDataInit: ldr r4, [r2, r3] str r4, [r0, r3] adds r3, r3, #4 LoopCopyDataInit: adds r4, r0, r3 cmp r4, r1 bcc CopyDataInit /* Zero fill the bss segment. */ ldr r2, =_sbss ldr r4, =_ebss movs r3, #0 b LoopFillZerobss FillZerobss: str r3, [r2] adds r2, r2, #4 LoopFillZerobss: cmp r2, r4 bcc FillZerobss /* Call static constructors */ bl __libc_init_array /* Call the application's entry point.*/ bl main LoopForever: b LoopForever .size Reset_Handler, .-Reset_Handler /** * @brief This is the code that gets called when the processor receives an * unexpected interrupt. This simply enters an infinite loop, preserving * the system state for examination by a debugger. * * @param None * @retval : None */ .section .text.Default_Handler,"ax",%progbits Default_Handler: Infinite_Loop: b Infinite_Loop .size Default_Handler, .-Default_Handler /****************************************************************************** * * The minimal vector table for a Cortex M0. Note that the proper constructs * must be placed on this to ensure that it ends up at physical address * 0x0000.0000. * ******************************************************************************/ .section .isr_vector,"a",%progbits .type g_pfnVectors, %object .size g_pfnVectors, .-g_pfnVectors g_pfnVectors: .word _estack .word Reset_Handler .word NMI_Handler .word HardFault_Handler .word 0 .word 0 .word 0 .word 0 .word 0 .word 0 .word 0 .word SVC_Handler .word 0 .word 0 .word PendSV_Handler .word SysTick_Handler .word WWDG_IRQHandler /* Window WatchDog */ .word 0 /* Reserved */ .word RTC_IRQHandler /* RTC through the EXTI line */ .word FLASH_IRQHandler /* FLASH */ .word RCC_IRQHandler /* RCC */ .word EXTI0_1_IRQHandler /* EXTI Line 0 and 1 */ .word EXTI2_3_IRQHandler /* EXTI Line 2 and 3 */ .word EXTI4_15_IRQHandler /* EXTI Line 4 to 15 */ .word 0 /* Reserved */ .word DMA1_Channel1_IRQHandler /* DMA1 Channel 1 */ .word DMA1_Channel2_3_IRQHandler /* DMA1 Channel 2 and Channel 3 */ .word DMA1_Channel4_5_IRQHandler /* DMA1 Channel 4 and Channel 5 */ .word ADC1_IRQHandler /* ADC1 */ .word TIM1_BRK_UP_TRG_COM_IRQHandler /* TIM1 Break, Update, Trigger and Commutation */ .word TIM1_CC_IRQHandler /* TIM1 Capture Compare */ .word 0 /* Reserved */ .word TIM3_IRQHandler /* TIM3 */ .word 0 /* Reserved */ .word 0 /* Reserved */ .word TIM14_IRQHandler /* TIM14 */ .word 0 /* Reserved */ .word TIM16_IRQHandler /* TIM16 */ .word TIM17_IRQHandler /* TIM17 */ .word I2C1_IRQHandler /* I2C1 */ .word 0 /* Reserved */ .word SPI1_IRQHandler /* SPI1 */ .word 0 /* Reserved */ .word USART1_IRQHandler /* USART1 */ .word 0 /* Reserved */ .word 0 /* Reserved */ .word 0 /* Reserved */ .word 0 /* Reserved */ /******************************************************************************* * * Provide weak aliases for each Exception handler to the Default_Handler. * As they are weak aliases, any function with the same name will override * this definition. * *******************************************************************************/ .weak NMI_Handler .thumb_set NMI_Handler,Default_Handler .weak HardFault_Handler .thumb_set HardFault_Handler,Default_Handler .weak SVC_Handler .thumb_set SVC_Handler,Default_Handler .weak PendSV_Handler .thumb_set PendSV_Handler,Default_Handler .weak SysTick_Handler .thumb_set SysTick_Handler,Default_Handler .weak WWDG_IRQHandler .thumb_set WWDG_IRQHandler,Default_Handler .weak RTC_IRQHandler .thumb_set RTC_IRQHandler,Default_Handler .weak FLASH_IRQHandler .thumb_set FLASH_IRQHandler,Default_Handler .weak RCC_IRQHandler .thumb_set RCC_IRQHandler,Default_Handler .weak EXTI0_1_IRQHandler .thumb_set EXTI0_1_IRQHandler,Default_Handler .weak EXTI2_3_IRQHandler .thumb_set EXTI2_3_IRQHandler,Default_Handler .weak EXTI4_15_IRQHandler .thumb_set EXTI4_15_IRQHandler,Default_Handler .weak DMA1_Channel1_IRQHandler .thumb_set DMA1_Channel1_IRQHandler,Default_Handler .weak DMA1_Channel2_3_IRQHandler .thumb_set DMA1_Channel2_3_IRQHandler,Default_Handler .weak DMA1_Channel4_5_IRQHandler .thumb_set DMA1_Channel4_5_IRQHandler,Default_Handler .weak ADC1_IRQHandler .thumb_set ADC1_IRQHandler,Default_Handler .weak TIM1_BRK_UP_TRG_COM_IRQHandler .thumb_set TIM1_BRK_UP_TRG_COM_IRQHandler,Default_Handler .weak TIM1_CC_IRQHandler .thumb_set TIM1_CC_IRQHandler,Default_Handler .weak TIM3_IRQHandler .thumb_set TIM3_IRQHandler,Default_Handler .weak TIM14_IRQHandler .thumb_set TIM14_IRQHandler,Default_Handler .weak TIM16_IRQHandler .thumb_set TIM16_IRQHandler,Default_Handler .weak TIM17_IRQHandler .thumb_set TIM17_IRQHandler,Default_Handler .weak I2C1_IRQHandler .thumb_set I2C1_IRQHandler,Default_Handler .weak SPI1_IRQHandler .thumb_set SPI1_IRQHandler,Default_Handler .weak USART1_IRQHandler .thumb_set USART1_IRQHandler,Default_Handler
vni/code_from_books_and_articles
6,432
MaraBos.Rust_Atomics_and_Locks/chapter7/add_ten.s
.text .file "add_ten.affd3cf1fd86c4f-cgu.0" .section .text._ZN3std10sys_common9backtrace28__rust_begin_short_backtrace17h93832cff871d5aafE,"ax",@progbits .p2align 2 .type _ZN3std10sys_common9backtrace28__rust_begin_short_backtrace17h93832cff871d5aafE,@function _ZN3std10sys_common9backtrace28__rust_begin_short_backtrace17h93832cff871d5aafE: .cfi_startproc str x30, [sp, #-16]! .cfi_def_cfa_offset 16 .cfi_offset w30, -16 blr x0 //APP //NO_APP ldr x30, [sp], #16 .cfi_def_cfa_offset 0 .cfi_restore w30 ret .Lfunc_end0: .size _ZN3std10sys_common9backtrace28__rust_begin_short_backtrace17h93832cff871d5aafE, .Lfunc_end0-_ZN3std10sys_common9backtrace28__rust_begin_short_backtrace17h93832cff871d5aafE .cfi_endproc .section .text._ZN3std2rt10lang_start17h8bee6e7451cb6373E,"ax",@progbits .hidden _ZN3std2rt10lang_start17h8bee6e7451cb6373E .globl _ZN3std2rt10lang_start17h8bee6e7451cb6373E .p2align 2 .type _ZN3std2rt10lang_start17h8bee6e7451cb6373E,@function _ZN3std2rt10lang_start17h8bee6e7451cb6373E: .cfi_startproc stp x30, x0, [sp, #-16]! .cfi_def_cfa_offset 16 .cfi_offset w30, -16 mov w4, w3 mov x3, x2 mov x2, x1 adrp x1, .L__unnamed_1 add x1, x1, :lo12:.L__unnamed_1 add x0, sp, #8 bl _ZN3std2rt19lang_start_internal17hd1ee6171f586dc89E ldr x30, [sp], #16 .cfi_def_cfa_offset 0 .cfi_restore w30 ret .Lfunc_end1: .size _ZN3std2rt10lang_start17h8bee6e7451cb6373E, .Lfunc_end1-_ZN3std2rt10lang_start17h8bee6e7451cb6373E .cfi_endproc .section ".text._ZN3std2rt10lang_start28_$u7b$$u7b$closure$u7d$$u7d$17hdad660c94c71ce27E","ax",@progbits .p2align 2 .type _ZN3std2rt10lang_start28_$u7b$$u7b$closure$u7d$$u7d$17hdad660c94c71ce27E,@function _ZN3std2rt10lang_start28_$u7b$$u7b$closure$u7d$$u7d$17hdad660c94c71ce27E: .cfi_startproc str x30, [sp, #-16]! .cfi_def_cfa_offset 16 .cfi_offset w30, -16 ldr x0, [x0] bl _ZN3std10sys_common9backtrace28__rust_begin_short_backtrace17h93832cff871d5aafE mov w0, wzr ldr x30, [sp], #16 .cfi_def_cfa_offset 0 .cfi_restore w30 ret .Lfunc_end2: .size _ZN3std2rt10lang_start28_$u7b$$u7b$closure$u7d$$u7d$17hdad660c94c71ce27E, .Lfunc_end2-_ZN3std2rt10lang_start28_$u7b$$u7b$closure$u7d$$u7d$17hdad660c94c71ce27E .cfi_endproc .section ".text._ZN4core3ops8function6FnOnce40call_once$u7b$$u7b$vtable.shim$u7d$$u7d$17hc72475ed83484d9dE","ax",@progbits .p2align 2 .type _ZN4core3ops8function6FnOnce40call_once$u7b$$u7b$vtable.shim$u7d$$u7d$17hc72475ed83484d9dE,@function _ZN4core3ops8function6FnOnce40call_once$u7b$$u7b$vtable.shim$u7d$$u7d$17hc72475ed83484d9dE: .cfi_startproc str x30, [sp, #-16]! .cfi_def_cfa_offset 16 .cfi_offset w30, -16 ldr x0, [x0] bl _ZN3std10sys_common9backtrace28__rust_begin_short_backtrace17h93832cff871d5aafE mov w0, wzr ldr x30, [sp], #16 .cfi_def_cfa_offset 0 .cfi_restore w30 ret .Lfunc_end3: .size _ZN4core3ops8function6FnOnce40call_once$u7b$$u7b$vtable.shim$u7d$$u7d$17hc72475ed83484d9dE, .Lfunc_end3-_ZN4core3ops8function6FnOnce40call_once$u7b$$u7b$vtable.shim$u7d$$u7d$17hc72475ed83484d9dE .cfi_endproc .section ".text._ZN4core3ptr85drop_in_place$LT$std..rt..lang_start$LT$$LP$$RP$$GT$..$u7b$$u7b$closure$u7d$$u7d$$GT$17hf764fd8130b0ec20E","ax",@progbits .p2align 2 .type _ZN4core3ptr85drop_in_place$LT$std..rt..lang_start$LT$$LP$$RP$$GT$..$u7b$$u7b$closure$u7d$$u7d$$GT$17hf764fd8130b0ec20E,@function _ZN4core3ptr85drop_in_place$LT$std..rt..lang_start$LT$$LP$$RP$$GT$..$u7b$$u7b$closure$u7d$$u7d$$GT$17hf764fd8130b0ec20E: .cfi_startproc ret .Lfunc_end4: .size _ZN4core3ptr85drop_in_place$LT$std..rt..lang_start$LT$$LP$$RP$$GT$..$u7b$$u7b$closure$u7d$$u7d$$GT$17hf764fd8130b0ec20E, .Lfunc_end4-_ZN4core3ptr85drop_in_place$LT$std..rt..lang_start$LT$$LP$$RP$$GT$..$u7b$$u7b$closure$u7d$$u7d$$GT$17hf764fd8130b0ec20E .cfi_endproc .section .text._ZN7add_ten4main17h951ac70448cb6ceaE,"ax",@progbits .p2align 2 .type _ZN7add_ten4main17h951ac70448cb6ceaE,@function _ZN7add_ten4main17h951ac70448cb6ceaE: .cfi_startproc sub sp, sp, #80 .cfi_def_cfa_offset 80 str x30, [sp, #64] .cfi_offset w30, -16 adrp x10, :got:_ZN4core3fmt3num3imp52_$LT$impl$u20$core..fmt..Display$u20$for$u20$i32$GT$3fmt17h3085d13a887d5006E mov w8, #30 add x9, sp, #76 mov x0, sp ldr x10, [x10, :got_lo12:_ZN4core3fmt3num3imp52_$LT$impl$u20$core..fmt..Display$u20$for$u20$i32$GT$3fmt17h3085d13a887d5006E] str w8, [sp, #76] mov w8, #2 stp x9, x10, [sp, #48] adrp x9, .L__unnamed_2 add x9, x9, :lo12:.L__unnamed_2 add x10, sp, #48 stp x9, x8, [sp] mov w8, #1 str x10, [sp, #16] stp x8, xzr, [sp, #24] bl _ZN3std2io5stdio6_print17h138f95179bc356cdE ldr x30, [sp, #64] add sp, sp, #80 .cfi_def_cfa_offset 0 .cfi_restore w30 ret .Lfunc_end5: .size _ZN7add_ten4main17h951ac70448cb6ceaE, .Lfunc_end5-_ZN7add_ten4main17h951ac70448cb6ceaE .cfi_endproc .section .text.main,"ax",@progbits .globl main .p2align 2 .type main,@function main: .cfi_startproc str x30, [sp, #-16]! .cfi_def_cfa_offset 16 .cfi_offset w30, -16 mov x2, x1 sxtw x1, w0 adrp x0, _ZN7add_ten4main17h951ac70448cb6ceaE add x0, x0, :lo12:_ZN7add_ten4main17h951ac70448cb6ceaE mov w3, wzr bl _ZN3std2rt10lang_start17h8bee6e7451cb6373E ldr x30, [sp], #16 ret .Lfunc_end6: .size main, .Lfunc_end6-main .cfi_endproc .type .L__unnamed_1,@object .section .data.rel.ro..L__unnamed_1,"aw",@progbits .p2align 3, 0x0 .L__unnamed_1: .xword _ZN4core3ptr85drop_in_place$LT$std..rt..lang_start$LT$$LP$$RP$$GT$..$u7b$$u7b$closure$u7d$$u7d$$GT$17hf764fd8130b0ec20E .asciz "\b\000\000\000\000\000\000\000\b\000\000\000\000\000\000" .xword _ZN4core3ops8function6FnOnce40call_once$u7b$$u7b$vtable.shim$u7d$$u7d$17hc72475ed83484d9dE .xword _ZN3std2rt10lang_start28_$u7b$$u7b$closure$u7d$$u7d$17hdad660c94c71ce27E .xword _ZN3std2rt10lang_start28_$u7b$$u7b$closure$u7d$$u7d$17hdad660c94c71ce27E .size .L__unnamed_1, 48 .type .L__unnamed_3,@object .section .rodata..L__unnamed_3,"a",@progbits .L__unnamed_3: .ascii "v: " .size .L__unnamed_3, 3 .type .L__unnamed_4,@object .section .rodata..L__unnamed_4,"a",@progbits .L__unnamed_4: .byte 10 .size .L__unnamed_4, 1 .type .L__unnamed_2,@object .section .data.rel.ro..L__unnamed_2,"aw",@progbits .p2align 3, 0x0 .L__unnamed_2: .xword .L__unnamed_3 .asciz "\003\000\000\000\000\000\000" .xword .L__unnamed_4 .asciz "\001\000\000\000\000\000\000" .size .L__unnamed_2, 32 .ident "rustc version 1.75.0 (82e1608df 2023-12-21)" .section ".note.GNU-stack","",@progbits
vsoupdotvx/fusion-randomiser
1,114
src/asm/cooldowns.s
.section .text "CardUI::Awake(&mut self)+0x1E0": call store_cooldown .nops 2 "ENDCardUI::Awake(&mut self)+0x1E0": store_cooldown: movss CardUI.fullCD(%rbx), %xmm1 movl CardUI.theSeedType(%rbx), %ecx cmpl $1259, %ecx ja store_cooldown.locA call plant_type_flatten_menu cmpl $48, %eax jnc store_cooldown.locA leaq plant_cd_table(%rip), %rdx movzbl (%rdx,%rax), %edx xorl %ecx, %ecx shlb $1, %dl setnc %cl cvtsi2ss %edx, %xmm0 mulss const1over254(%rip), %xmm0 addss const1.0(%rip), %xmm0 jrcxz store_cooldown.locB mulss const0.5(%rip), %xmm0 store_cooldown.locB: mulss %xmm0, %xmm1 store_cooldown.locA: movss %xmm1, CardUI.fullCD(%rbx) movq CardUI.board(%rbx), %rax ret fetch_cooldown: call plant_type_flatten_menu testq %rax, %rax js fetch_cooldown.locA leaq plant_cd_table(%rip), %rcx movzbl (%rcx,%rax), %eax fetch_cooldown.locA: ret .section .data const1.0: .float 1.0 const0.5: .float 0.5 const1over254: .float 0.00393700787402 plant_cd_table: .space 48
vsoupdotvx/fusion-randomiser
1,239
src/asm/tweaks.s
.section .text "AlmanacCard::Start(&mut self)+0x59": #almanac always fully unlocked movl $1, %eax "ENDAlmanacCard::Start(&mut self)+0x59": "CursorChange::SetDefaultCursor()+0xC6": #default cursor is not custom xorq %rcx, %rcx "ENDCursorChange::SetDefaultCursor()+0xC6": "Zombie::Die(&mut self, reason: i32)+0x533": #enflamed nerf (explosion damage 100 -> 10) movl $10, %r8d "ENDZombie::Die(&mut self, reason: i32)+0x533": "Zombie::GetDamage(&mut self, theDamage: i32, theDamageType: DmgType, fix: bool) -> i32+0x2AE": #enflamed nerf (damage mult 2.5 -> 1.5) .nops 2 "ENDZombie::GetDamage(&mut self, theDamage: i32, theDamageType: DmgType, fix: bool) -> i32+0x2AE": "Bullet_fireTrack::HitZombie(&mut self, zombie: Zombie)+0x25": #fire cattail "buff" to compensate for enflamed nerf (damage mult 7.5 -> 7.5) lea (%r8,%r8,4), %r8d "ENDBullet_fireTrack::HitZombie(&mut self, zombie: Zombie)+0x25": "Bullet_threeSpike::HitZombie(&mut self, zombie: Zombie)+0x120": #threespiker nerf (30% of max health -> 15% of max health) call threespike_multiply .nops 3 "ENDBullet_threeSpike::HitZombie(&mut self, zombie: Zombie)+0x120": threespike_multiply: mulss threespike_mul(%rip), %xmm0 ret .section .data threespike_mul: .float 0.15
vsoupdotvx/fusion-randomiser
15,723
src/asm/base.s
.section .text HASH_U32 = 0x1758F99D "Card::Start(&mut self)+0x1AC": call replace_card_unlock "ENDCard::Start(&mut self)+0x1AC": "Advanture_Btn::OnMouseUp(&mut self)+0x71": call adventure_level_enter_1 "ENDAdvanture_Btn::OnMouseUp(&mut self)+0x71": "MainMenu_Btn::OnMouseUp(&mut self)+0x10B": call adventure_level_enter_2 "ENDMainMenu_Btn::OnMouseUp(&mut self)+0x10B": "PrizeMgr::Click(&mut self)+0x435": call set_level_trophy "ENDPrizeMgr::Click(&mut self)+0x435": "UIMgr::EnterGame(levelType: LevelType, levelNumber: i32, id: i32, name: String)+0x227": call rerandomise nop "ENDUIMgr::EnterGame(levelType: LevelType, levelNumber: i32, id: i32, name: String)+0x227": "MixData::InitTravel()+0x54": call store_mix_data_ptr .nops 2 "ENDMixData::InitTravel()+0x54": "PrizeMgr::GoBack(&mut self)+0x17A": call adventure_level_enter_3 "ENDPrizeMgr::GoBack(&mut self)+0x17A": "GiveFertilize::AnimGive(&mut self)+0x195": .nops 6 "ENDGiveFertilize::AnimGive(&mut self)+0x195": "GiveFertilize::AvaliableToGive() -> bool+0xD4": movb $0x1, %al nop "ENDGiveFertilize::AvaliableToGive() -> bool+0xD4": "AnimUIOver::Die(&mut self)+0x8DF": insb jmp "AnimUIOver::Die.locZ" "ENDAnimUIOver::Die(&mut self)+0x8DF": "AnimUIOver::Die(&mut self)+0x9C3": insb jmp "AnimUIOver::Die.locBD" "ENDAnimUIOver::Die(&mut self)+0x9C3": replace_card_unlock: movl %ecx, %edx call plant_type_flatten_menu testq %rax, %rax jns replace_card_unlock.locA movl %edx, %ecx jmp "Lawnf::CheckIfPlantUnlock(thePlantType: PlantType) -> bool" replace_card_unlock.locA: cmpl $"PlantType::CattailGirl", %edx je replace_card_unlock.locB cmpl $"PlantType::Gravebuster", %edx je replace_card_unlock.locC leaq plant_lut(%rip), %rcx movl level_idx(%rip), %edx incl %edx cmpb %dl, (%rcx,%rax) setna %al ret replace_card_unlock.locB: imull $0x2493, level_idx(%rip), %edx #this immediate is 65536 / 7 (rounded up), used for modulo shrl $16, %edx imull $-7, %edx, %edx addl level_idx(%rip), %edx subl $5, %edx cmpl $-3, %edx setnc %al ret replace_card_unlock.locC: movb $1, %al ret set_level_trophy: cmpl $"LevelType::Advanture", GameAPP.theBoardType(%rax) jne set_level_trophy.locA incl level_idx(%rip) movl level_idx(%rip), %edx set_level_trophy.locA: movb $1, 0x20(%rcx,%rdx) ret adventure_level_enter_1: decl %esi movl %esi, level_idx(%rip) mov %rdi, 0x28(%rsp) leaq level_lut(%rip), %rdi movzbl (%rdi,%rsi), %esi ret adventure_level_enter_3: incl level_idx(%rip) adventure_level_enter_2: leaq level_lut(%rip), %rdx movl level_idx(%rip), %eax movzbl (%rdx,%rax), %edx jmp "UIMgr::EnterGame(levelType: LevelType, levelNumber: i32, id: i32, name: String)" MAX_PLANT = 1259 plant_type_flatten: #This likely needs to be checked every single update xorl %eax, %eax cmpl $1000, %ecx jc plant_type_flatten.locA subl $48, %ecx plant_type_flatten.locA: testl %ecx, %ecx sets %al cmpl $900, %ecx jc plant_type_flatten.locB subl $599, %ecx plant_type_flatten.locB: negq %rax cmpl $300, %ecx jc plant_type_flatten.locC subl $39, %ecx plant_type_flatten.locC: cmpl $233, %ecx jc plant_type_flatten.locD subl $193, %ecx plant_type_flatten.locD: orq %rcx, %rax ret MAX_ZOMBIE = 223 zombie_type_flatten: xorl %eax, %eax cmpl $200, %ecx jc zombie_type_flatten.locA subl $79, %ecx zombie_type_flatten.locA: testl %ecx, %ecx sets %al cmpl $100, %ecx jc zombie_type_flatten.locB subl $37, %ecx zombie_type_flatten.locB: negq %rax cmpl $2, %ecx jc zombie_type_flatten.locC decl %ecx zombie_type_flatten.locC: orq %rcx, %rax ret zombie_type_widen: xorl %eax, %eax testl %ecx, %ecx sets %al cmpl $1, %ecx jc zombie_type_widen.locA incl %ecx zombie_type_widen.locA: negq %rax cmpl $63, %ecx jc zombie_type_widen.locB addl $37, %ecx zombie_type_widen.locB: cmpl $121, %ecx jc zombie_type_widen.locC addl $79, %ecx zombie_type_widen.locC: orq %rcx, %rax ret init_hash_table_u32_u32: #log2(table_size) in cl, table in rdx, array in r8, init array in r9, array length in r10 pushq %rdi pushq %rsi pushq %rbx negb %cl addb $32, %cl testq %r10, %r10 je init_hash_table_u32_u32.exloopA xorl %ebx, %ebx init_hash_table_u32_u32.loopA: incl %ebx movl -8(%r9,%rbx,8), %esi imull $HASH_U32, %esi, %edi shrl %cl, %edi movl (%rdx,%rdi,4), %eax movl %esi, (%r8) movl %eax, 8(%r8) movl -4(%r9,%rbx,8), %eax movl %eax, 4(%r8) movl %ebx, (%rdx,%rdi,4) addq $12, %r8 decq %r10 jne init_hash_table_u32_u32.loopA init_hash_table_u32_u32.exloopA: popq %rbx popq %rsi popq %rdi ret plant_type_flatten_menu: #for ease of use, this function saves all registers except ecx (input value) and eax (output value) pushq %r8 pushq %r9 pushq %rdx cmpb $0, menu_table_initialized(%rip) jne plant_type_flatten_menu.locA pushq %rcx pushq %r10 movb $6, %cl leaq menu_table(%rip), %rdx leaq menu_array(%rip), %r8 leaq menu_init_array(%rip), %r9 movl $65, %r10d call init_hash_table_u32_u32 movb $1, menu_table_initialized(%rip) popq %r10 popq %rcx plant_type_flatten_menu.locA: imull $HASH_U32, %ecx, %eax leaq menu_table(%rip), %rdx leaq menu_array(%rip), %r8 shrl $26, %eax movl (%rdx,%rax,4), %eax movq $-1, %rdx testl %eax, %eax je plant_type_flatten_menu.exloopA plant_type_flatten_menu.loopA: leal (%eax,%eax,2), %eax cmpl %ecx, -12(%r8,%rax,4) movl -8(%r8,%rax,4), %edx je plant_type_flatten_menu.exloopA movl -4(%r8,%rax,4), %eax testl %eax, %eax jne plant_type_flatten_menu.loopA movq $-1, %rdx plant_type_flatten_menu.exloopA: movq %rdx, %rax popq %rdx popq %r9 popq %r8 ret "CardUI::Awake(&mut self)+0x371": call set_text_size "ENDCardUI::Awake(&mut self)+0x371": "CardUI::Update(&mut self)+0x1BD": jmp set_text_size_2 "ENDCardUI::Update(&mut self)+0x1BD": set_text_size_2: pushq %rax subq $0x28, %rsp cmpq $0, fetch_cooldown_ptr(%rip) sete %al cmpq $0, fetch_firerate_ptr(%rip) sete %ah andb %ah, %al jne set_text_size_2.locA movq %rdi, %rcx movb $1, %dl call "TMPro::TMP_Text::set_enableAutoSizing(&mut self, value: bool)" movq %rdi, %rcx movss packet_font_size(%rip), %xmm1 call "TMPro::TMP_Text::set_fontSizeMin(&mut self, value: f32)" movq %rdi, %rcx movss packet_font_size(%rip), %xmm1 call "TMPro::TMP_Text::set_fontSizeMax(&mut self, value: f32)" set_text_size_2.locA: addq $0x28, %rsp popq %rax testq %rdi, %rdi je "CardUI::Update(&mut self)"+0x231 #TODO jmp "CardUI::Update(&mut self)"+0x1C2 set_text_size: pushq %rbp subq $0x30, %rsp movq %rdx, %rbp call "CardUI::Awake.unknown_callB" cmpq $0, fetch_cooldown_ptr(%rip) sete %al cmpq $0, fetch_firerate_ptr(%rip) sete %ah andb %ah, %al jne set_text_size.locA movq %rbp, %rcx movb $1, %dl call "TMPro::TMP_Text::set_enableAutoSizing(&mut self, value: bool)" movq %rbp, %rcx movss packet_font_size(%rip), %xmm1 call "TMPro::TMP_Text::set_fontSizeMin(&mut self, value: f32)" movq %rbp, %rcx movss packet_font_size(%rip), %xmm1 call "TMPro::TMP_Text::set_fontSizeMax(&mut self, value: f32)" set_text_size.locA: addq $0x30, %rsp popq %rbp ret "CardUI::Awake(&mut self)+0x380": call card_create_label "ENDCardUI::Awake(&mut self)+0x380": "CardUI::Update(&mut self)+0x1B8": call card_create_label "ENDCardUI::Update(&mut self)+0x1B8": card_create_label: #seed packet cost in ecx pushq %rdi pushq %rsi pushq %rbp pushq %rbx pushq %r14 pushq %r15 subq $0x48, %rsp xorl %r15d, %r15d xorl %r14d, %r14d movl (%rcx), %ecx testl %ecx, %ecx sets %r15b jns card_create_label.locA negl %ecx card_create_label.locA: pxor %xmm2, %xmm2 movaps const4x10.0(%rip), %xmm0 cvtsi2ss %ecx, %xmm5 pshufd $0, %xmm5, %xmm4 pshufd $0, %xmm5, %xmm5 mulps card_create_label.constB(%rip), %xmm5 mulps card_create_label.constA(%rip), %xmm4 movaps %xmm0, %xmm1 cmpq $1, fetch_cooldown_ptr(%rip) sbbl $-1, %r14d roundps $3, %xmm5, %xmm5 roundps $3, %xmm4, %xmm4 mulps %xmm5, %xmm0 mulps %xmm4, %xmm1 cmpq $1, fetch_firerate_ptr(%rip) sbbl $-1, %r14d palignr $12, %xmm1, %xmm0 palignr $12, %xmm2, %xmm1 subps %xmm0, %xmm5 subps %xmm2, %xmm4 cvtps2dq %xmm5, %xmm5 cvtps2dq %xmm4, %xmm4 packssdw %xmm5, %xmm4 pcmpeqw %xmm4, %xmm2 pmovmskb %xmm2, %esi xorl $0xFFFF, %esi orl $0xC000, %esi bsfl %esi, %esi negl %esi addl $16, %esi leal (%esi,%r15d,2), %ecx leal (%ecx,%r14d,8), %ecx shrl $1, %ecx paddw const8x0x30(%rip), %xmm4 movdqu %xmm4, 0x20(%rsp) xorl %edx, %edx call "System::String::FastAllocateString(length: i32) -> String" movq %rax, %rbp xorl %ecx, %ecx call "System.Runtime.CompilerServices::RuntimeHelpers::get_OffsetToStringData() -> i32" movslq %eax, %r8 addq %r8, %rbp movw $0x002D, (%rbp,%r14,8) movq fetch_firerate_ptr(%rip), %r9 testq %r9, %r9 je card_create_label.locB movq $0x0020002000200020, %rax movq %rax, (%rbp) movslq CardUI.theSeedType(%rbx), %rcx cmpl $1192, %ecx ja card_create_label.locB call *%r9 #doesn't affect %r8 imull $9, %eax, %eax shrl $8, %eax leaq indicator_lut(%rip), %rcx movq (%rcx,%rax,8), %rcx movq %rcx, (%rbp) card_create_label.locB: movq fetch_cooldown_ptr(%rip), %r9 testq %r9, %r9 je card_create_label.locC movq $0x0020002000200020, %rax movq %rax, -8(%rbp,%r14,8) movslq CardUI.theSeedType(%rbx), %rcx call *%r9 #doesn't affect %r8 testl %eax, %eax js card_create_label.locC imull $9, %eax, %eax shrl $8, %eax leaq indicator_lut(%rip), %rcx movq (%rcx,%rax,8), %rcx movq %rcx, -8(%rbp,%r14,8) card_create_label.locC: movl %esi, %ecx leaq 0x30(%rsp), %rsi leaq (%rbp,%r15,2), %rdi leaq (%rdi,%r14,8), %rdi subq %rcx, %rsi rep movsb addq $0x48, %rsp movq %rbp, %rax subq %r8, %rax popq %r15 popq %r14 popq %rbx popq %rbp popq %rsi popq %rdi ret "InitBoard::ReadySetPlant(&mut self)": call exit_seed_select "ENDInitBoard::ReadySetPlant(&mut self)": exit_seed_select: movb $0, on_seed_select(%rip) movq %rbx, 0x10(%rsp) ret wait_on_rust: movb $1, stopped(%rip) subq $0x20, %rsp wait_on_rust.locA: call "System.Threading::Thread::Yield() -> bool" cmpb $0, stopped(%rip) jne wait_on_rust.locA addq $0x20, %rsp ret rerandomise: movl %edi, GameAPP.theBoardLevel(%rcx) movq %rcx, game_app_ptr(%rip) movl $1, GameAPP.advantureZhouMu(%rcx) cmpq $0, mix_data_ptr(%rip) jne rerandomise.locA subq $0x28, %rsp call "MixData::InitMixData()" addq $0x28, %rsp rerandomise.locA: call wait_on_rust movb $1, on_seed_select(%rip) ret store_mix_data_ptr: movq 0xB8(%rax), %rcx movq %rcx, mix_data_ptr(%rip) ret .section .data card_create_label.constA: .float 0.0000001 .float 0.000001 .float 0.00001 .float 0.0001 card_create_label.constB: .float 0.001 .float 0.01 .float 0.1 .float 1 const8x0x30: .word 0x30 .word 0x30 .word 0x30 .word 0x30 .word 0x30 .word 0x30 .word 0x30 .word 0x30 const4x10.0: .float 10 .float 10 .float 10 .float 10 fetch_cooldown_ptr: .quad "OR_NULL fetch_cooldown" fetch_firerate_ptr: .quad "OR_NULL fetch_firerate" game_app_ptr: .quad 0 mix_data_ptr: .quad 0 indicator_lut: .word 0x0039; .word 0x0020; .word 0x007C; .word 0x0020 .word 0x0038; .word 0x0020; .word 0x007C; .word 0x0020 .word 0x0037; .word 0x0020; .word 0x007C; .word 0x0020 .word 0x0036; .word 0x0020; .word 0x007C; .word 0x0020 .word 0x0035; .word 0x0020; .word 0x007C; .word 0x0020 .word 0x0034; .word 0x0020; .word 0x007C; .word 0x0020 .word 0x0033; .word 0x0020; .word 0x007C; .word 0x0020 .word 0x0032; .word 0x0020; .word 0x007C; .word 0x0020 .word 0x0031; .word 0x0020; .word 0x007C; .word 0x0020 .word 0x0030; .word 0x0020; .word 0x007C; .word 0x0020 level_idx: .long 0 menu_init_array: .long "PlantType::Peashooter"; .long 0 .long "PlantType::SunFlower"; .long 1 .long "PlantType::CherryBomb"; .long 2 .long "PlantType::WallNut"; .long 3 .long "PlantType::PotatoMine"; .long 4 .long "PlantType::Chomper"; .long 5 .long "PlantType::SmallPuff"; .long 6 .long "PlantType::FumeShroom"; .long 7 .long "PlantType::HypnoShroom"; .long 8 .long "PlantType::ScaredyShroom"; .long 9 .long "PlantType::IceShroom"; .long 10 .long "PlantType::DoomShroom"; .long 11 .long "PlantType::LilyPad"; .long 12 .long "PlantType::Squash"; .long 13 .long "PlantType::ThreePeater"; .long 14 .long "PlantType::Tanglekelp"; .long 15 .long "PlantType::Jalapeno"; .long 16 .long "PlantType::Caltrop"; .long 17 .long "PlantType::TorchWood"; .long 18 .long "PlantType::SeaShroom"; .long 19 .long "PlantType::Plantern"; .long 20 .long "PlantType::Cactus"; .long 21 .long "PlantType::Blover"; .long 22 .long "PlantType::StarFruit"; .long 23 .long "PlantType::Pumpkin"; .long 24 .long "PlantType::Magnetshroom"; .long 25 .long "PlantType::Cabbagepult"; .long 26 .long "PlantType::Pot"; .long 27 .long "PlantType::Cornpult"; .long 28 .long "PlantType::Garlic"; .long 29 .long "PlantType::Umbrellaleaf"; .long 30 .long "PlantType::Marigold"; .long 31 .long "PlantType::Melonpult"; .long 32 .long "PlantType::PresentZombie"; .long 33 .long "PlantType::EndoFlame"; .long 34 .long "PlantType::Present"; .long 35 .long "PlantType::TallNut"; .long 36 .long "PlantType::SpikeRock"; .long 37 .long "PlantType::CattailPlant"; .long 38 .long "PlantType::GloomShroom"; .long 39 .long "PlantType::CobCannon"; .long 40 .long "PlantType::Imitater"; .long 41 .long "PlantType::Squalour"; .long 42 .long "PlantType::SwordStar"; .long 43 .long "PlantType::BigSunNut"; .long 44 .long "PlantType::CattailGirl"; .long 45 .long "PlantType::Wheat"; .long 46 .long "PlantType::BigWallNut"; .long 47 .long "PlantType::Shulkflower"; .long 47 .long "PlantType::ElectricOnion"; .long 47 .long "PlantType::PineFurnace"; .long 47 .long "PlantType::SpruceShooter"; .long 47 .long "PlantType::IceLotus"; .long 47 .long "PlantType::WaterAloes"; .long 47 .long "PlantType::Bamboo"; .long 47 .long "PlantType::SnowPresent"; .long 47 .long "PlantType::DiamondPotatoNut"; .long 47 .long "PlantType::PassionFruit"; .long 47 .long "PlantType::FrozenPear"; .long 47 .long "PlantType::IcePeach"; .long 47 .long "PlantType::Chrysantheautumn"; .long 47 .long "PlantType::Gravebuster"; .long 47 .long "PlantType::IceBean"; .long 47 .long "PlantType::EndoFlameGirl"; .long 47 .long "PlantType::Hamburger"; .long 47 packet_font_size: .float 15.0 menu_table: .space 0x40 * 4 menu_array: .space 65 * 12 level_lut: .space 45, 1 #it's important that this stays at 1 because the first level is entered before anything gets randomised plant_lut: .space 48, 0x0 menu_table_initialized: .byte 0 stopped: .byte 0 on_seed_select: .byte 0
vsoupdotvx/fusion-randomiser
1,565
src/asm/tutorials.s
.section .text "TutorManager::Update(&mut self)+0x7D": .nops 6 "ENDTutorManager::Update(&mut self)+0x7D": "TutorManager::TutorUpdate1(&mut self)+0x437": .nops 6 "ENDTutorManager::TutorUpdate1(&mut self)+0x437": "TutorManager::TutorUpdate1(&mut self)+0x567": .nops 2 "ENDTutorManager::TutorUpdate1(&mut self)+0x567": "TutorManager::TutorUpdate4(&mut self)+0xDC": .nops 6 "ENDTutorManager::TutorUpdate4(&mut self)+0xDC": "TutorManager::TutorUpdate7(&mut self)+0x21A": .nops 2 "ENDTutorManager::TutorUpdate7(&mut self)+0x21A": "TutorManager::TutorUpdate7(&mut self)+0xE9": .nops 6 "ENDTutorManager::TutorUpdate7(&mut self)+0xE9": "TutorManager::TutorUpdate8(&mut self)+0x298": .nops 2 "ENDTutorManager::TutorUpdate8(&mut self)+0x298": "TutorManager::TutorUpdate8(&mut self)+0x166": jmp "TutorManager::TutorUpdate8.locL" nop "ENDTutorManager::TutorUpdate8(&mut self)+0x166": "TutorManager::TutorUpdate13(&mut self)+0x394": .nops 6 "ENDTutorManager::TutorUpdate13(&mut self)+0x394": "TutorManager::TutorUpdate13(&mut self)+0x4E4": .nops 6 "ENDTutorManager::TutorUpdate13(&mut self)+0x4E4": "TutorManager::TutorUpdate22(&mut self)+0x117": .nops 2 "ENDTutorManager::TutorUpdate22(&mut self)+0x117": "TutorManager::TutorUpdate24(&mut self)+0xA1": .nops 6 "ENDTutorManager::TutorUpdate24(&mut self)+0xA1": "TutorManager::TutorUpdate24(&mut self)+0x105": .nops 6 "ENDTutorManager::TutorUpdate24(&mut self)+0x105": nop #the patcher complains if this nop doesn't exist due to the END label not falling on the start of an instruction
vsoupdotvx/fusion-randomiser
1,545
src/asm/firerates.s
.section .text .macro .utf8 char #not actually used because utf16 .ifeq \char >> 6 .byte \char .else .ifeq \char >> 11 .byte 0xC0 | \char >> 6 .byte 0x80 | (\char & 0x3F) .else .ifeq \char >> 16 .byte 0xE0 | \char >> 12 .byte 0x80 | (\char >> 6 & 0x3F) .byte 0x80 | (\char & 0x3F) .else .byte 0xF0 | \char >> 18 .byte 0x80 | (\char >> 12 & 0x3F) .byte 0x80 | (\char >> 6 & 0x3F) .byte 0x80 | (\char & 0x3F) .endif .endif .endif .endm "Plant::PlantShootUpdate(&mut self)+0x5C": call plant_get_firerate "ENDPlant::PlantShootUpdate(&mut self)+0x5C": plant_get_firerate: pushq %rax pushq %rcx pushq %rdx movl Plant.thePlantType(%rbx), %ecx cmpl $1259, %ecx #MAX_PLANT ja plant_get_firerate.locA call plant_type_flatten leaq plant_firerate_table(%rip), %rdx movzbq (%rdx,%rax), %rdx shlb $1, %dl cvtsi2ss %edx, %xmm6 mulss const1over254(%rip), %xmm6 addss const1.0(%rip), %xmm6 jc plant_get_firerate.locB mulss const0.5(%rip), %xmm6 jmp plant_get_firerate.locB plant_get_firerate.locA: movss const1.0(%rip), %xmm6 plant_get_firerate.locB: mulss Plant.thePlantAttackInterval(%rbx), %xmm6 popq %rdx popq %rcx popq %rax ret fetch_firerate: call plant_type_flatten leaq plant_firerate_table(%rip), %rcx movzbl (%rcx,%rax), %eax ret .section .data const1.0: .float 1.0 const0.5: .float 0.5 const1over254: .float 0.00393700787402 plant_firerate_table: .space 384, 0x00 plant_firerate_table_end:
vsoupdotvx/fusion-randomiser
1,129
src/asm/cost.s
.section .text "CardUI::Awake(&mut self)+0x226": call cmp_and_store_cost nop "ENDCardUI::Awake(&mut self)+0x226": cmp_and_store_cost: pushq %rax movl CardUI.theSeedCost(%rbx), %edx movl CardUI.theSeedType(%rbx), %ecx cmpl $1259, %ecx ja cmp_and_store_cost.locA call plant_type_flatten_menu cmpl $48, %eax jnc cmp_and_store_cost.locA leaq plant_cost_table(%rip), %rcx movzbl (%rcx,%rax), %ecx shlb $1, %cl cvtsi2ss %ecx, %xmm2 cvtsi2ss %edx, %xmm3 mulss const0.2over254(%rip), %xmm2 addss const0.2(%rip), %xmm2 jc cmp_and_store_cost.locB mulss const0.5(%rip), %xmm2 cmp_and_store_cost.locB: mulss %xmm3, %xmm2 cvtss2si %xmm2, %edx leal (%edx,%edx,4), %edx cmp_and_store_cost.locA: movl %edx, CardUI.theSeedCost(%rbx) xorps %xmm0, %xmm0 ucomiss %xmm0, %xmm1 popq %rax ret .section .data const0.2: .float 0.20001 #fixes some rounding issues I was having const0.5: .float 0.5 const5.0: .float 5.0 const0.2over254: .float 0.000787401574804 plant_cost_table: .space 48
vsoupdotvx/fusion-randomiser
8,358
src/asm/spawns.s
.section .text "InitZombieList::AdvantureZombieTypeSpawn(theLevelNumber: i32)+0x67": .nops 2 "ENDInitZombieList::AdvantureZombieTypeSpawn(theLevelNumber: i32)+0x67": "InitZombieList::AllowZombies(zombieTypes: System.Collections.Generic::List<ZombieType>)+0xE9": jmp init_zombie_list "ENDInitZombieList::AllowZombies(zombieTypes: System.Collections.Generic::List<ZombieType>)+0xE9": "InitZombieList::PickZombie() -> ZombieType": jmp pick_zombie "ENDInitZombieList::PickZombie() -> ZombieType": insb init_zombie_list: movq %rcx, %rdi movq zombie_spawn_bitfield(%rip), %rdx init_zombie_list.loopA: bsfq %rdx, %rcx je init_zombie_list.exloopA btrq %rcx, %rdx call zombie_type_widen cmpl %eax, 0x18(%rdi) jna init_zombie_list.exloopA movb $1, 0x20(%rdi,%rax) jmp init_zombie_list.loopA init_zombie_list.exloopA: movq zombie_spawn_bitfield+0x8(%rip), %rdx init_zombie_list.loopB: bsfq %rdx, %rcx je init_zombie_list.exloopB btrq %rcx, %rdx addl $0x40, %ecx call zombie_type_widen cmpl %eax, 0x18(%rdi) jna init_zombie_list.exloopB movb $1, 0x20(%rdi,%rax) jmp init_zombie_list.loopB init_zombie_list.exloopB: jmp "InitZombieList::AllowZombies(zombieTypes: System.Collections.Generic::List<ZombieType>)"+0xF5 pick_zombie: pushq %rbp pushq %rbx movq %rsp, %rbp leaq zombie_spawn_bitfield(%rip), %r8 xorl %edx, %edx movl $127, %eax pick_zombie.loopA: movq %rax, %r9 movl %eax, %ecx andq $0x3F, %r9 shrl $6, %ecx btq %r9, (%r8,%rcx,8) jnc pick_zombie.locA addl 16(%r8,%rax,4), %edx pushq %rax pick_zombie.locA: subl $1, %eax jnc pick_zombie.loopA movq %rsp, %rbx xorl %ecx, %ecx andq $-16, %rsp subq $0x20, %rsp call "UnityEngine::Random::RandomRangeInt(minInclusive: i32, maxExclusive: i32) -> i32" movq %rbx, %rsp leaq zombie_weights(%rip), %rdx pick_zombie.loopB: popq %rcx subl (%rdx,%rcx,4), %eax jnc pick_zombie.loopB call zombie_type_widen movq %rbp, %rsp popq %rbx popq %rbp ret "Zombie::InitHealth(&mut self)+0x188": call show_text_if_preview_1 .nops 2 "ENDZombie::InitHealth(&mut self)+0x188": #"CreateZombie::SetZombie(&mut self, theRow: i32, theZombieType: ZombieType, theX: f32, isIdle: bool) -> UnityEngine::GameObject+0x652": # jne show_text_if_preview_2 #"ENDCreateZombie::SetZombie(&mut self, theRow: i32, theZombieType: ZombieType, theX: f32, isIdle: bool) -> UnityEngine::GameObject+0x652": "Zombie::UpdateHealthText(&mut self)+0x9A": #CHANGED call set_zombie_txt "ENDZombie::UpdateHealthText(&mut self)+0x9A": show_text_if_preview_1: movzbl Board.showZombieHealth(%rdx), %edx orb on_seed_select(%rip), %dl ret #show_text_if_preview_2: # movq %rdi, %rcx # xorl %edx, %edx # call "Zombie::InitHealth(&mut self)" # jmp "CreateZombie::SetZombie(&mut self, theRow: i32, theZombieType: ZombieType, theX: f32, isIdle: bool) -> UnityEngine::GameObject"+0x77F set_zombie_txt: cmpb $0, on_seed_select(%rip) jne set_zombie_txt.locA xorl %edx, %edx xorq %r8, %r8 ret set_zombie_txt.locA: subq $0x48, %rsp movq Zombie.healthText(%rdi), %rbx movq %rbx, %rcx movb $1, %dl call "TMPro::TMP_Text::set_enableAutoSizing(&mut self, value: bool)" movq %rbx, %rcx movss zombie_menu_text_size(%rip), %xmm1 call "TMPro::TMP_Text::set_fontSizeMin(&mut self, value: f32)" movq %rbx, %rcx movss zombie_menu_text_size(%rip), %xmm1 call "TMPro::TMP_Text::set_fontSizeMax(&mut self, value: f32)" movq Zombie.healthTextShadow(%rdi), %rbx movq %rbx, %rcx movb $1, %dl call "TMPro::TMP_Text::set_enableAutoSizing(&mut self, value: bool)" movq %rbx, %rcx movss zombie_menu_text_size(%rip), %xmm1 call "TMPro::TMP_Text::set_fontSizeMin(&mut self, value: f32)" movq %rbx, %rcx movss zombie_menu_text_size(%rip), %xmm1 call "TMPro::TMP_Text::set_fontSizeMax(&mut self, value: f32)" movl $68, %ebx movl Zombie.theZombieType(%rdi), %ecx leaq zombie_weights(%rip), %rdx call zombie_type_flatten movl (%rdx,%rax,4), %ecx movq %rcx, 0x40(%rsp) movss 0x200(%rdx,%rax,4), %xmm0 leaq 0x30(%rsp), %rcx call float_2_string_4sf_0t3xp movq 0x40(%rsp), %rcx leaq 0x20(%rsp), %rdx call int_2_string_fast addl %eax, %ebx movl %eax, %ebp movl %ebx, %ecx shrl $1, %ecx call "System::String::FastAllocateString(length: i32) -> String" movq %rdi, 0x40(%rsp) movq %rax, %rdi xorl %ecx, %ecx call "System.Runtime.CompilerServices::RuntimeHelpers::get_OffsetToStringData() -> i32" pushq %rdi movslq %eax, %r8 addq %r8, %rdi movq $0x0067006900650057, %rax stosq movq $0x0020003A00740068, %rax stosq pushq %rsi leaq 0x40(%rsp), %rsi movl %ebp, %ecx subq %rbp, %rsi rep movsb leaq average_txt(%rip), %rsi movb $21, %cl rep movsw movq 0x40(%rsp), %rax stosq movl 0x48(%rsp), %eax stosw popq %rsi popq %rax movq 0x40(%rsp), %rdi addq $0x50, %rsp movq %rsi, 0x38(%rsp) movq %r14, 0x30(%rsp) movq Zombie.healthText(%rdi), %r14 jmp "Zombie::UpdateHealthText(&mut self)"+0x353 int_2_string_fast: pxor %xmm2, %xmm2 movaps const4x10.0(%rip), %xmm0 cvtsi2ss %ecx, %xmm5 pshufd $0, %xmm5, %xmm4 pshufd $0, %xmm5, %xmm5 mulps card_create_label.constB(%rip), %xmm5 mulps card_create_label.constA(%rip), %xmm4 movaps %xmm0, %xmm1 roundps $3, %xmm5, %xmm5 roundps $3, %xmm4, %xmm4 mulps %xmm5, %xmm0 mulps %xmm4, %xmm1 palignr $12, %xmm1, %xmm0 palignr $12, %xmm2, %xmm1 subps %xmm0, %xmm5 subps %xmm1, %xmm4 cvtps2dq %xmm5, %xmm5 cvtps2dq %xmm4, %xmm4 packssdw %xmm5, %xmm4 pcmpeqw %xmm4, %xmm2 pmovmskb %xmm2, %eax xorl $0xFFFF, %eax orl $0xC000, %eax bsfl %eax, %eax negl %eax addl $16, %eax paddw const8x0x30(%rip), %xmm4 movdqu %xmm4, (%rdx) ret float_2_string_4sf_0t3xp: #2 sigfigs, 0-3 (decimal) exponent xorl %edx, %edx ucomiss const100.0(%rip), %xmm0 jc float_2_string_4sf_0t3xp.locA ucomiss const1000.0(%rip), %xmm0 setnc %dl addb $2, %dl jmp float_2_string_4sf_0t3xp.locB float_2_string_4sf_0t3xp.locA: ucomiss const10.0(%rip), %xmm0 setnc %dl float_2_string_4sf_0t3xp.locB: leaq float_2_string_4sf_0t3xp.lutA(%rip), %rax movdqa const4x10.0(%rip), %xmm2 movdqa float_2_string_4sf_0t3xp.constA(%rip), %xmm3 cmpb $3, %dl jne float_2_string_4sf_0t3xp.locC movdqa float_2_string_4sf_0t3xp.constB(%rip), %xmm3 float_2_string_4sf_0t3xp.locC: mulss (%rax,%rdx,4), %xmm0 leaq float_2_string_4sf_0t3xp.lutB(%rip), %rax shll $4, %edx addss const0.5(%rip), %xmm0 pshufd $0x00, %xmm0, %xmm1 mulps card_create_label.constB(%rip), %xmm1 roundps $3, %xmm1, %xmm1 mulps %xmm1, %xmm2 pslldq $4, %xmm2 subps %xmm2, %xmm1 cvtps2dq %xmm1, %xmm1 paddd const4x0x30(%rip), %xmm1 packssdw %xmm3, %xmm1 pshufb (%rax,%rdx), %xmm1 movdqa %xmm1, (%rcx) ret .section .data const4x0x30: .long 0x30 .long 0x30 .long 0x30 .long 0x30 float_2_string_4sf_0t3xp.constA: .long 0 .long 0 .long 0 .long 0x2E float_2_string_4sf_0t3xp.constB: .long 0 .long 0 .long 0 .long 0x2C float_2_string_4sf_0t3xp.lutA: const1000.0: .float 1000.0 const100.0: .float 100.0 const10.0: .float 10.0 .float 1.0 float_2_string_4sf_0t3xp.lutB: .word 0x0100 .word 0x0F0E .word 0x0302 .word 0x0504 .word 0x0706 .space 0x6, 0x8 .word 0x0100 .word 0x0302 .word 0x0F0E .word 0x0504 .word 0x0706 .space 0x6, 0x8 .word 0x0100 .word 0x0302 .word 0x0504 .word 0x0F0E .word 0x0706 .space 0x6, 0x8 .word 0x0100 .word 0x0F0E .word 0x0302 .word 0x0504 .word 0x0706 .space 0x6, 0x8 const0.5: .float 0.5 zombie_menu_text_size: .float 2.0 average_txt: .ascii "\n\0A\0v\0e\0r\0a\0g\0e\0 \0#\0 \0i\0n\0 \0l\0e\0v\0e\0l\0:\0 \0" .align 16 zombie_spawn_bitfield: #size: 46 + 19 + 24 = 89 .quad 0xFFFFAFFFFFFFFFFF .quad 0x7FFFFFF zombie_weights: .space 512, 0x0 zombie_freqs: .space 512, 0x0
Vtyeshe/geoai-backend
7,228
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/lzma-sys-0.1.20/xz-5.2/src/liblzma/check/crc32_x86.S
/* * Speed-optimized CRC32 using slicing-by-eight algorithm * * This uses only i386 instructions, but it is optimized for i686 and later * (including e.g. Pentium II/III/IV, Athlon XP, and Core 2). For i586 * (e.g. Pentium), slicing-by-four would be better, and even the C version * of slicing-by-eight built with gcc -march=i586 tends to be a little bit * better than this. Very few probably run this code on i586 or older x86 * so this shouldn't be a problem in practice. * * Authors: Igor Pavlov (original version) * Lasse Collin (AT&T syntax, PIC support, better portability) * * This file has been put into the public domain. * You can do whatever you want with this file. * * This code needs lzma_crc32_table, which can be created using the * following C code: uint32_t lzma_crc32_table[8][256]; void init_table(void) { // IEEE-802.3 static const uint32_t poly32 = UINT32_C(0xEDB88320); // Castagnoli // static const uint32_t poly32 = UINT32_C(0x82F63B78); // Koopman // static const uint32_t poly32 = UINT32_C(0xEB31D82E); for (size_t s = 0; s < 8; ++s) { for (size_t b = 0; b < 256; ++b) { uint32_t r = s == 0 ? b : lzma_crc32_table[s - 1][b]; for (size_t i = 0; i < 8; ++i) { if (r & 1) r = (r >> 1) ^ poly32; else r >>= 1; } lzma_crc32_table[s][b] = r; } } } * The prototype of the CRC32 function: * extern uint32_t lzma_crc32(const uint8_t *buf, size_t size, uint32_t crc); */ /* * On some systems, the functions need to be prefixed. The prefix is * usually an underscore. */ #ifndef __USER_LABEL_PREFIX__ # define __USER_LABEL_PREFIX__ #endif #define MAKE_SYM_CAT(prefix, sym) prefix ## sym #define MAKE_SYM(prefix, sym) MAKE_SYM_CAT(prefix, sym) #define LZMA_CRC32 MAKE_SYM(__USER_LABEL_PREFIX__, lzma_crc32) #define LZMA_CRC32_TABLE MAKE_SYM(__USER_LABEL_PREFIX__, lzma_crc32_table) /* * Solaris assembler doesn't have .p2align, and Darwin uses .align * differently than GNU/Linux and Solaris. */ #if defined(__APPLE__) || defined(__MSDOS__) # define ALIGN(pow2, abs) .align pow2 #else # define ALIGN(pow2, abs) .align abs #endif .text .globl LZMA_CRC32 #if !defined(__APPLE__) && !defined(_WIN32) && !defined(__CYGWIN__) \ && !defined(__MSDOS__) .type LZMA_CRC32, @function #endif ALIGN(4, 16) LZMA_CRC32: /* * Register usage: * %eax crc * %esi buf * %edi size or buf + size * %ebx lzma_crc32_table * %ebp Table index * %ecx Temporary * %edx Temporary */ pushl %ebx pushl %esi pushl %edi pushl %ebp movl 0x14(%esp), %esi /* buf */ movl 0x18(%esp), %edi /* size */ movl 0x1C(%esp), %eax /* crc */ /* * Store the address of lzma_crc32_table to %ebx. This is needed to * get position-independent code (PIC). * * The PIC macro is defined by libtool, while __PIC__ is defined * by GCC but only on some systems. Testing for both makes it simpler * to test this code without libtool, and keeps the code working also * when built with libtool but using something else than GCC. * * I understood that libtool may define PIC on Windows even though * the code in Windows DLLs is not PIC in sense that it is in ELF * binaries, so we need a separate check to always use the non-PIC * code on Windows. */ #if (!defined(PIC) && !defined(__PIC__)) \ || (defined(_WIN32) || defined(__CYGWIN__)) /* Not PIC */ movl $ LZMA_CRC32_TABLE, %ebx #elif defined(__APPLE__) /* Mach-O */ call .L_get_pc .L_pic: leal .L_lzma_crc32_table$non_lazy_ptr-.L_pic(%ebx), %ebx movl (%ebx), %ebx #else /* ELF */ call .L_get_pc addl $_GLOBAL_OFFSET_TABLE_, %ebx movl LZMA_CRC32_TABLE@GOT(%ebx), %ebx #endif /* Complement the initial value. */ notl %eax ALIGN(4, 16) .L_align: /* * Check if there is enough input to use slicing-by-eight. * We need 16 bytes, because the loop pre-reads eight bytes. */ cmpl $16, %edi jb .L_rest /* Check if we have reached alignment of eight bytes. */ testl $7, %esi jz .L_slice /* Calculate CRC of the next input byte. */ movzbl (%esi), %ebp incl %esi movzbl %al, %ecx xorl %ecx, %ebp shrl $8, %eax xorl (%ebx, %ebp, 4), %eax decl %edi jmp .L_align ALIGN(2, 4) .L_slice: /* * If we get here, there's at least 16 bytes of aligned input * available. Make %edi multiple of eight bytes. Store the possible * remainder over the "size" variable in the argument stack. */ movl %edi, 0x18(%esp) andl $-8, %edi subl %edi, 0x18(%esp) /* * Let %edi be buf + size - 8 while running the main loop. This way * we can compare for equality to determine when exit the loop. */ addl %esi, %edi subl $8, %edi /* Read in the first eight aligned bytes. */ xorl (%esi), %eax movl 4(%esi), %ecx movzbl %cl, %ebp .L_loop: movl 0x0C00(%ebx, %ebp, 4), %edx movzbl %ch, %ebp xorl 0x0800(%ebx, %ebp, 4), %edx shrl $16, %ecx xorl 8(%esi), %edx movzbl %cl, %ebp xorl 0x0400(%ebx, %ebp, 4), %edx movzbl %ch, %ebp xorl (%ebx, %ebp, 4), %edx movzbl %al, %ebp /* * Read the next four bytes, for which the CRC is calculated * on the next interation of the loop. */ movl 12(%esi), %ecx xorl 0x1C00(%ebx, %ebp, 4), %edx movzbl %ah, %ebp shrl $16, %eax xorl 0x1800(%ebx, %ebp, 4), %edx movzbl %ah, %ebp movzbl %al, %eax movl 0x1400(%ebx, %eax, 4), %eax addl $8, %esi xorl %edx, %eax xorl 0x1000(%ebx, %ebp, 4), %eax /* Check for end of aligned input. */ cmpl %edi, %esi movzbl %cl, %ebp jne .L_loop /* * Process the remaining eight bytes, which we have already * copied to %ecx and %edx. */ movl 0x0C00(%ebx, %ebp, 4), %edx movzbl %ch, %ebp xorl 0x0800(%ebx, %ebp, 4), %edx shrl $16, %ecx movzbl %cl, %ebp xorl 0x0400(%ebx, %ebp, 4), %edx movzbl %ch, %ebp xorl (%ebx, %ebp, 4), %edx movzbl %al, %ebp xorl 0x1C00(%ebx, %ebp, 4), %edx movzbl %ah, %ebp shrl $16, %eax xorl 0x1800(%ebx, %ebp, 4), %edx movzbl %ah, %ebp movzbl %al, %eax movl 0x1400(%ebx, %eax, 4), %eax addl $8, %esi xorl %edx, %eax xorl 0x1000(%ebx, %ebp, 4), %eax /* Copy the number of remaining bytes to %edi. */ movl 0x18(%esp), %edi .L_rest: /* Check for end of input. */ testl %edi, %edi jz .L_return /* Calculate CRC of the next input byte. */ movzbl (%esi), %ebp incl %esi movzbl %al, %ecx xorl %ecx, %ebp shrl $8, %eax xorl (%ebx, %ebp, 4), %eax decl %edi jmp .L_rest .L_return: /* Complement the final value. */ notl %eax popl %ebp popl %edi popl %esi popl %ebx ret #if defined(PIC) || defined(__PIC__) ALIGN(4, 16) .L_get_pc: movl (%esp), %ebx ret #endif #if defined(__APPLE__) && (defined(PIC) || defined(__PIC__)) /* Mach-O PIC */ .section __IMPORT,__pointers,non_lazy_symbol_pointers .L_lzma_crc32_table$non_lazy_ptr: .indirect_symbol LZMA_CRC32_TABLE .long 0 #elif defined(_WIN32) || defined(__CYGWIN__) # ifdef DLL_EXPORT /* This is equivalent of __declspec(dllexport). */ .section .drectve .ascii " -export:lzma_crc32" # endif #elif !defined(__MSDOS__) /* ELF */ .size LZMA_CRC32, .-LZMA_CRC32 #endif /* * This is needed to support non-executable stack. It's ugly to * use __linux__ here, but I don't know a way to detect when * we are using GNU assembler. */ #if defined(__ELF__) && defined(__linux__) .section .note.GNU-stack,"",@progbits #endif
Vtyeshe/geoai-backend
6,761
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/lzma-sys-0.1.20/xz-5.2/src/liblzma/check/crc64_x86.S
/* * Speed-optimized CRC64 using slicing-by-four algorithm * * This uses only i386 instructions, but it is optimized for i686 and later * (including e.g. Pentium II/III/IV, Athlon XP, and Core 2). * * Authors: Igor Pavlov (original CRC32 assembly code) * Lasse Collin (CRC64 adaptation of the modified CRC32 code) * * This file has been put into the public domain. * You can do whatever you want with this file. * * This code needs lzma_crc64_table, which can be created using the * following C code: uint64_t lzma_crc64_table[4][256]; void init_table(void) { // ECMA-182 static const uint64_t poly64 = UINT64_C(0xC96C5795D7870F42); for (size_t s = 0; s < 4; ++s) { for (size_t b = 0; b < 256; ++b) { uint64_t r = s == 0 ? b : lzma_crc64_table[s - 1][b]; for (size_t i = 0; i < 8; ++i) { if (r & 1) r = (r >> 1) ^ poly64; else r >>= 1; } lzma_crc64_table[s][b] = r; } } } * The prototype of the CRC64 function: * extern uint64_t lzma_crc64(const uint8_t *buf, size_t size, uint64_t crc); */ /* * On some systems, the functions need to be prefixed. The prefix is * usually an underscore. */ #ifndef __USER_LABEL_PREFIX__ # define __USER_LABEL_PREFIX__ #endif #define MAKE_SYM_CAT(prefix, sym) prefix ## sym #define MAKE_SYM(prefix, sym) MAKE_SYM_CAT(prefix, sym) #define LZMA_CRC64 MAKE_SYM(__USER_LABEL_PREFIX__, lzma_crc64) #define LZMA_CRC64_TABLE MAKE_SYM(__USER_LABEL_PREFIX__, lzma_crc64_table) /* * Solaris assembler doesn't have .p2align, and Darwin uses .align * differently than GNU/Linux and Solaris. */ #if defined(__APPLE__) || defined(__MSDOS__) # define ALIGN(pow2, abs) .align pow2 #else # define ALIGN(pow2, abs) .align abs #endif .text .globl LZMA_CRC64 #if !defined(__APPLE__) && !defined(_WIN32) && !defined(__CYGWIN__) \ && !defined(__MSDOS__) .type LZMA_CRC64, @function #endif ALIGN(4, 16) LZMA_CRC64: /* * Register usage: * %eax crc LSB * %edx crc MSB * %esi buf * %edi size or buf + size * %ebx lzma_crc64_table * %ebp Table index * %ecx Temporary */ pushl %ebx pushl %esi pushl %edi pushl %ebp movl 0x14(%esp), %esi /* buf */ movl 0x18(%esp), %edi /* size */ movl 0x1C(%esp), %eax /* crc LSB */ movl 0x20(%esp), %edx /* crc MSB */ /* * Store the address of lzma_crc64_table to %ebx. This is needed to * get position-independent code (PIC). * * The PIC macro is defined by libtool, while __PIC__ is defined * by GCC but only on some systems. Testing for both makes it simpler * to test this code without libtool, and keeps the code working also * when built with libtool but using something else than GCC. * * I understood that libtool may define PIC on Windows even though * the code in Windows DLLs is not PIC in sense that it is in ELF * binaries, so we need a separate check to always use the non-PIC * code on Windows. */ #if (!defined(PIC) && !defined(__PIC__)) \ || (defined(_WIN32) || defined(__CYGWIN__)) /* Not PIC */ movl $ LZMA_CRC64_TABLE, %ebx #elif defined(__APPLE__) /* Mach-O */ call .L_get_pc .L_pic: leal .L_lzma_crc64_table$non_lazy_ptr-.L_pic(%ebx), %ebx movl (%ebx), %ebx #else /* ELF */ call .L_get_pc addl $_GLOBAL_OFFSET_TABLE_, %ebx movl LZMA_CRC64_TABLE@GOT(%ebx), %ebx #endif /* Complement the initial value. */ notl %eax notl %edx .L_align: /* * Check if there is enough input to use slicing-by-four. * We need eight bytes, because the loop pre-reads four bytes. */ cmpl $8, %edi jb .L_rest /* Check if we have reached alignment of four bytes. */ testl $3, %esi jz .L_slice /* Calculate CRC of the next input byte. */ movzbl (%esi), %ebp incl %esi movzbl %al, %ecx xorl %ecx, %ebp shrdl $8, %edx, %eax xorl (%ebx, %ebp, 8), %eax shrl $8, %edx xorl 4(%ebx, %ebp, 8), %edx decl %edi jmp .L_align .L_slice: /* * If we get here, there's at least eight bytes of aligned input * available. Make %edi multiple of four bytes. Store the possible * remainder over the "size" variable in the argument stack. */ movl %edi, 0x18(%esp) andl $-4, %edi subl %edi, 0x18(%esp) /* * Let %edi be buf + size - 4 while running the main loop. This way * we can compare for equality to determine when exit the loop. */ addl %esi, %edi subl $4, %edi /* Read in the first four aligned bytes. */ movl (%esi), %ecx .L_loop: xorl %eax, %ecx movzbl %cl, %ebp movl 0x1800(%ebx, %ebp, 8), %eax xorl %edx, %eax movl 0x1804(%ebx, %ebp, 8), %edx movzbl %ch, %ebp xorl 0x1000(%ebx, %ebp, 8), %eax xorl 0x1004(%ebx, %ebp, 8), %edx shrl $16, %ecx movzbl %cl, %ebp xorl 0x0800(%ebx, %ebp, 8), %eax xorl 0x0804(%ebx, %ebp, 8), %edx movzbl %ch, %ebp addl $4, %esi xorl (%ebx, %ebp, 8), %eax xorl 4(%ebx, %ebp, 8), %edx /* Check for end of aligned input. */ cmpl %edi, %esi /* * Copy the next input byte to %ecx. It is slightly faster to * read it here than at the top of the loop. */ movl (%esi), %ecx jb .L_loop /* * Process the remaining four bytes, which we have already * copied to %ecx. */ xorl %eax, %ecx movzbl %cl, %ebp movl 0x1800(%ebx, %ebp, 8), %eax xorl %edx, %eax movl 0x1804(%ebx, %ebp, 8), %edx movzbl %ch, %ebp xorl 0x1000(%ebx, %ebp, 8), %eax xorl 0x1004(%ebx, %ebp, 8), %edx shrl $16, %ecx movzbl %cl, %ebp xorl 0x0800(%ebx, %ebp, 8), %eax xorl 0x0804(%ebx, %ebp, 8), %edx movzbl %ch, %ebp addl $4, %esi xorl (%ebx, %ebp, 8), %eax xorl 4(%ebx, %ebp, 8), %edx /* Copy the number of remaining bytes to %edi. */ movl 0x18(%esp), %edi .L_rest: /* Check for end of input. */ testl %edi, %edi jz .L_return /* Calculate CRC of the next input byte. */ movzbl (%esi), %ebp incl %esi movzbl %al, %ecx xorl %ecx, %ebp shrdl $8, %edx, %eax xorl (%ebx, %ebp, 8), %eax shrl $8, %edx xorl 4(%ebx, %ebp, 8), %edx decl %edi jmp .L_rest .L_return: /* Complement the final value. */ notl %eax notl %edx popl %ebp popl %edi popl %esi popl %ebx ret #if defined(PIC) || defined(__PIC__) ALIGN(4, 16) .L_get_pc: movl (%esp), %ebx ret #endif #if defined(__APPLE__) && (defined(PIC) || defined(__PIC__)) /* Mach-O PIC */ .section __IMPORT,__pointers,non_lazy_symbol_pointers .L_lzma_crc64_table$non_lazy_ptr: .indirect_symbol LZMA_CRC64_TABLE .long 0 #elif defined(_WIN32) || defined(__CYGWIN__) # ifdef DLL_EXPORT /* This is equivalent of __declspec(dllexport). */ .section .drectve .ascii " -export:lzma_crc64" # endif #elif !defined(__MSDOS__) /* ELF */ .size LZMA_CRC64, .-LZMA_CRC64 #endif /* * This is needed to support non-executable stack. It's ugly to * use __linux__ here, but I don't know a way to detect when * we are using GNU assembler. */ #if defined(__ELF__) && defined(__linux__) .section .note.GNU-stack,"",@progbits #endif
Vtyeshe/geoai-backend
15,150
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/zstd-sys-2.0.15+zstd.1.5.7/zstd/lib/decompress/huf_decompress_amd64.S
/* * Copyright (c) Meta Platforms, Inc. and affiliates. * All rights reserved. * * This source code is licensed under both the BSD-style license (found in the * LICENSE file in the root directory of this source tree) and the GPLv2 (found * in the COPYING file in the root directory of this source tree). * You may select, at your option, one of the above-listed licenses. */ #include "../common/portability_macros.h" #if defined(__ELF__) && defined(__GNUC__) /* Stack marking * ref: https://wiki.gentoo.org/wiki/Hardened/GNU_stack_quickstart */ .section .note.GNU-stack,"",%progbits #if defined(__aarch64__) /* Mark that this assembly supports BTI & PAC, because it is empty for aarch64. * See: https://github.com/facebook/zstd/issues/3841 * See: https://gcc.godbolt.org/z/sqr5T4ffK * See: https://lore.kernel.org/linux-arm-kernel/20200429211641.9279-8-broonie@kernel.org/ * See: https://reviews.llvm.org/D62609 */ .pushsection .note.gnu.property, "a" .p2align 3 .long 4 /* size of the name - "GNU\0" */ .long 0x10 /* size of descriptor */ .long 0x5 /* NT_GNU_PROPERTY_TYPE_0 */ .asciz "GNU" .long 0xc0000000 /* pr_type - GNU_PROPERTY_AARCH64_FEATURE_1_AND */ .long 4 /* pr_datasz - 4 bytes */ .long 3 /* pr_data - GNU_PROPERTY_AARCH64_FEATURE_1_BTI | GNU_PROPERTY_AARCH64_FEATURE_1_PAC */ .p2align 3 /* pr_padding - bring everything to 8 byte alignment */ .popsection #endif #endif #if ZSTD_ENABLE_ASM_X86_64_BMI2 /* Calling convention: * * %rdi (or %rcx on Windows) contains the first argument: HUF_DecompressAsmArgs*. * %rbp isn't maintained (no frame pointer). * %rsp contains the stack pointer that grows down. * No red-zone is assumed, only addresses >= %rsp are used. * All register contents are preserved. */ ZSTD_HIDE_ASM_FUNCTION(HUF_decompress4X1_usingDTable_internal_fast_asm_loop) ZSTD_HIDE_ASM_FUNCTION(HUF_decompress4X2_usingDTable_internal_fast_asm_loop) ZSTD_HIDE_ASM_FUNCTION(_HUF_decompress4X2_usingDTable_internal_fast_asm_loop) ZSTD_HIDE_ASM_FUNCTION(_HUF_decompress4X1_usingDTable_internal_fast_asm_loop) .global HUF_decompress4X1_usingDTable_internal_fast_asm_loop .global HUF_decompress4X2_usingDTable_internal_fast_asm_loop .global _HUF_decompress4X1_usingDTable_internal_fast_asm_loop .global _HUF_decompress4X2_usingDTable_internal_fast_asm_loop .text /* Sets up register mappings for clarity. * op[], bits[], dtable & ip[0] each get their own register. * ip[1,2,3] & olimit alias var[]. * %rax is a scratch register. */ #define op0 rsi #define op1 rbx #define op2 rcx #define op3 rdi #define ip0 r8 #define ip1 r9 #define ip2 r10 #define ip3 r11 #define bits0 rbp #define bits1 rdx #define bits2 r12 #define bits3 r13 #define dtable r14 #define olimit r15 /* var[] aliases ip[1,2,3] & olimit * ip[1,2,3] are saved every iteration. * olimit is only used in compute_olimit. */ #define var0 r15 #define var1 r9 #define var2 r10 #define var3 r11 /* 32-bit var registers */ #define vard0 r15d #define vard1 r9d #define vard2 r10d #define vard3 r11d /* Calls X(N) for each stream 0, 1, 2, 3. */ #define FOR_EACH_STREAM(X) \ X(0); \ X(1); \ X(2); \ X(3) /* Calls X(N, idx) for each stream 0, 1, 2, 3. */ #define FOR_EACH_STREAM_WITH_INDEX(X, idx) \ X(0, idx); \ X(1, idx); \ X(2, idx); \ X(3, idx) /* Define both _HUF_* & HUF_* symbols because MacOS * C symbols are prefixed with '_' & Linux symbols aren't. */ _HUF_decompress4X1_usingDTable_internal_fast_asm_loop: HUF_decompress4X1_usingDTable_internal_fast_asm_loop: ZSTD_CET_ENDBRANCH /* Save all registers - even if they are callee saved for simplicity. */ push %rax push %rbx push %rcx push %rdx push %rbp push %rsi push %rdi push %r8 push %r9 push %r10 push %r11 push %r12 push %r13 push %r14 push %r15 /* Read HUF_DecompressAsmArgs* args from %rax */ #if defined(_WIN32) movq %rcx, %rax #else movq %rdi, %rax #endif movq 0(%rax), %ip0 movq 8(%rax), %ip1 movq 16(%rax), %ip2 movq 24(%rax), %ip3 movq 32(%rax), %op0 movq 40(%rax), %op1 movq 48(%rax), %op2 movq 56(%rax), %op3 movq 64(%rax), %bits0 movq 72(%rax), %bits1 movq 80(%rax), %bits2 movq 88(%rax), %bits3 movq 96(%rax), %dtable push %rax /* argument */ push 104(%rax) /* ilowest */ push 112(%rax) /* oend */ push %olimit /* olimit space */ subq $24, %rsp .L_4X1_compute_olimit: /* Computes how many iterations we can do safely * %r15, %rax may be clobbered * rbx, rdx must be saved * op3 & ip0 mustn't be clobbered */ movq %rbx, 0(%rsp) movq %rdx, 8(%rsp) movq 32(%rsp), %rax /* rax = oend */ subq %op3, %rax /* rax = oend - op3 */ /* r15 = (oend - op3) / 5 */ movabsq $-3689348814741910323, %rdx mulq %rdx movq %rdx, %r15 shrq $2, %r15 movq %ip0, %rax /* rax = ip0 */ movq 40(%rsp), %rdx /* rdx = ilowest */ subq %rdx, %rax /* rax = ip0 - ilowest */ movq %rax, %rbx /* rbx = ip0 - ilowest */ /* rdx = (ip0 - ilowest) / 7 */ movabsq $2635249153387078803, %rdx mulq %rdx subq %rdx, %rbx shrq %rbx addq %rbx, %rdx shrq $2, %rdx /* r15 = min(%rdx, %r15) */ cmpq %rdx, %r15 cmova %rdx, %r15 /* r15 = r15 * 5 */ leaq (%r15, %r15, 4), %r15 /* olimit = op3 + r15 */ addq %op3, %olimit movq 8(%rsp), %rdx movq 0(%rsp), %rbx /* If (op3 + 20 > olimit) */ movq %op3, %rax /* rax = op3 */ cmpq %rax, %olimit /* op3 == olimit */ je .L_4X1_exit /* If (ip1 < ip0) go to exit */ cmpq %ip0, %ip1 jb .L_4X1_exit /* If (ip2 < ip1) go to exit */ cmpq %ip1, %ip2 jb .L_4X1_exit /* If (ip3 < ip2) go to exit */ cmpq %ip2, %ip3 jb .L_4X1_exit /* Reads top 11 bits from bits[n] * Loads dt[bits[n]] into var[n] */ #define GET_NEXT_DELT(n) \ movq $53, %var##n; \ shrxq %var##n, %bits##n, %var##n; \ movzwl (%dtable,%var##n,2),%vard##n /* var[n] must contain the DTable entry computed with GET_NEXT_DELT * Moves var[n] to %rax * bits[n] <<= var[n] & 63 * op[n][idx] = %rax >> 8 * %ah is a way to access bits [8, 16) of %rax */ #define DECODE_FROM_DELT(n, idx) \ movq %var##n, %rax; \ shlxq %var##n, %bits##n, %bits##n; \ movb %ah, idx(%op##n) /* Assumes GET_NEXT_DELT has been called. * Calls DECODE_FROM_DELT then GET_NEXT_DELT */ #define DECODE_AND_GET_NEXT(n, idx) \ DECODE_FROM_DELT(n, idx); \ GET_NEXT_DELT(n) \ /* // ctz & nbBytes is stored in bits[n] * // nbBits is stored in %rax * ctz = CTZ[bits[n]] * nbBits = ctz & 7 * nbBytes = ctz >> 3 * op[n] += 5 * ip[n] -= nbBytes * // Note: x86-64 is little-endian ==> no bswap * bits[n] = MEM_readST(ip[n]) | 1 * bits[n] <<= nbBits */ #define RELOAD_BITS(n) \ bsfq %bits##n, %bits##n; \ movq %bits##n, %rax; \ andq $7, %rax; \ shrq $3, %bits##n; \ leaq 5(%op##n), %op##n; \ subq %bits##n, %ip##n; \ movq (%ip##n), %bits##n; \ orq $1, %bits##n; \ shlx %rax, %bits##n, %bits##n /* Store clobbered variables on the stack */ movq %olimit, 24(%rsp) movq %ip1, 0(%rsp) movq %ip2, 8(%rsp) movq %ip3, 16(%rsp) /* Call GET_NEXT_DELT for each stream */ FOR_EACH_STREAM(GET_NEXT_DELT) .p2align 6 .L_4X1_loop_body: /* Decode 5 symbols in each of the 4 streams (20 total) * Must have called GET_NEXT_DELT for each stream */ FOR_EACH_STREAM_WITH_INDEX(DECODE_AND_GET_NEXT, 0) FOR_EACH_STREAM_WITH_INDEX(DECODE_AND_GET_NEXT, 1) FOR_EACH_STREAM_WITH_INDEX(DECODE_AND_GET_NEXT, 2) FOR_EACH_STREAM_WITH_INDEX(DECODE_AND_GET_NEXT, 3) FOR_EACH_STREAM_WITH_INDEX(DECODE_FROM_DELT, 4) /* Load ip[1,2,3] from stack (var[] aliases them) * ip[] is needed for RELOAD_BITS * Each will be stored back to the stack after RELOAD */ movq 0(%rsp), %ip1 movq 8(%rsp), %ip2 movq 16(%rsp), %ip3 /* Reload each stream & fetch the next table entry * to prepare for the next iteration */ RELOAD_BITS(0) GET_NEXT_DELT(0) RELOAD_BITS(1) movq %ip1, 0(%rsp) GET_NEXT_DELT(1) RELOAD_BITS(2) movq %ip2, 8(%rsp) GET_NEXT_DELT(2) RELOAD_BITS(3) movq %ip3, 16(%rsp) GET_NEXT_DELT(3) /* If op3 < olimit: continue the loop */ cmp %op3, 24(%rsp) ja .L_4X1_loop_body /* Reload ip[1,2,3] from stack */ movq 0(%rsp), %ip1 movq 8(%rsp), %ip2 movq 16(%rsp), %ip3 /* Re-compute olimit */ jmp .L_4X1_compute_olimit #undef GET_NEXT_DELT #undef DECODE_FROM_DELT #undef DECODE #undef RELOAD_BITS .L_4X1_exit: addq $24, %rsp /* Restore stack (oend & olimit) */ pop %rax /* olimit */ pop %rax /* oend */ pop %rax /* ilowest */ pop %rax /* arg */ /* Save ip / op / bits */ movq %ip0, 0(%rax) movq %ip1, 8(%rax) movq %ip2, 16(%rax) movq %ip3, 24(%rax) movq %op0, 32(%rax) movq %op1, 40(%rax) movq %op2, 48(%rax) movq %op3, 56(%rax) movq %bits0, 64(%rax) movq %bits1, 72(%rax) movq %bits2, 80(%rax) movq %bits3, 88(%rax) /* Restore registers */ pop %r15 pop %r14 pop %r13 pop %r12 pop %r11 pop %r10 pop %r9 pop %r8 pop %rdi pop %rsi pop %rbp pop %rdx pop %rcx pop %rbx pop %rax ret _HUF_decompress4X2_usingDTable_internal_fast_asm_loop: HUF_decompress4X2_usingDTable_internal_fast_asm_loop: ZSTD_CET_ENDBRANCH /* Save all registers - even if they are callee saved for simplicity. */ push %rax push %rbx push %rcx push %rdx push %rbp push %rsi push %rdi push %r8 push %r9 push %r10 push %r11 push %r12 push %r13 push %r14 push %r15 /* Read HUF_DecompressAsmArgs* args from %rax */ #if defined(_WIN32) movq %rcx, %rax #else movq %rdi, %rax #endif movq 0(%rax), %ip0 movq 8(%rax), %ip1 movq 16(%rax), %ip2 movq 24(%rax), %ip3 movq 32(%rax), %op0 movq 40(%rax), %op1 movq 48(%rax), %op2 movq 56(%rax), %op3 movq 64(%rax), %bits0 movq 72(%rax), %bits1 movq 80(%rax), %bits2 movq 88(%rax), %bits3 movq 96(%rax), %dtable push %rax /* argument */ push %rax /* olimit */ push 104(%rax) /* ilowest */ movq 112(%rax), %rax push %rax /* oend3 */ movq %op3, %rax push %rax /* oend2 */ movq %op2, %rax push %rax /* oend1 */ movq %op1, %rax push %rax /* oend0 */ /* Scratch space */ subq $8, %rsp .L_4X2_compute_olimit: /* Computes how many iterations we can do safely * %r15, %rax may be clobbered * rdx must be saved * op[1,2,3,4] & ip0 mustn't be clobbered */ movq %rdx, 0(%rsp) /* We can consume up to 7 input bytes each iteration. */ movq %ip0, %rax /* rax = ip0 */ movq 40(%rsp), %rdx /* rdx = ilowest */ subq %rdx, %rax /* rax = ip0 - ilowest */ movq %rax, %r15 /* r15 = ip0 - ilowest */ /* rdx = rax / 7 */ movabsq $2635249153387078803, %rdx mulq %rdx subq %rdx, %r15 shrq %r15 addq %r15, %rdx shrq $2, %rdx /* r15 = (ip0 - ilowest) / 7 */ movq %rdx, %r15 /* r15 = min(r15, min(oend0 - op0, oend1 - op1, oend2 - op2, oend3 - op3) / 10) */ movq 8(%rsp), %rax /* rax = oend0 */ subq %op0, %rax /* rax = oend0 - op0 */ movq 16(%rsp), %rdx /* rdx = oend1 */ subq %op1, %rdx /* rdx = oend1 - op1 */ cmpq %rax, %rdx cmova %rax, %rdx /* rdx = min(%rdx, %rax) */ movq 24(%rsp), %rax /* rax = oend2 */ subq %op2, %rax /* rax = oend2 - op2 */ cmpq %rax, %rdx cmova %rax, %rdx /* rdx = min(%rdx, %rax) */ movq 32(%rsp), %rax /* rax = oend3 */ subq %op3, %rax /* rax = oend3 - op3 */ cmpq %rax, %rdx cmova %rax, %rdx /* rdx = min(%rdx, %rax) */ movabsq $-3689348814741910323, %rax mulq %rdx shrq $3, %rdx /* rdx = rdx / 10 */ /* r15 = min(%rdx, %r15) */ cmpq %rdx, %r15 cmova %rdx, %r15 /* olimit = op3 + 5 * r15 */ movq %r15, %rax leaq (%op3, %rax, 4), %olimit addq %rax, %olimit movq 0(%rsp), %rdx /* If (op3 + 10 > olimit) */ movq %op3, %rax /* rax = op3 */ cmpq %rax, %olimit /* op3 == olimit */ je .L_4X2_exit /* If (ip1 < ip0) go to exit */ cmpq %ip0, %ip1 jb .L_4X2_exit /* If (ip2 < ip1) go to exit */ cmpq %ip1, %ip2 jb .L_4X2_exit /* If (ip3 < ip2) go to exit */ cmpq %ip2, %ip3 jb .L_4X2_exit #define DECODE(n, idx) \ movq %bits##n, %rax; \ shrq $53, %rax; \ movzwl 0(%dtable,%rax,4),%r8d; \ movzbl 2(%dtable,%rax,4),%r15d; \ movzbl 3(%dtable,%rax,4),%eax; \ movw %r8w, (%op##n); \ shlxq %r15, %bits##n, %bits##n; \ addq %rax, %op##n #define RELOAD_BITS(n) \ bsfq %bits##n, %bits##n; \ movq %bits##n, %rax; \ shrq $3, %bits##n; \ andq $7, %rax; \ subq %bits##n, %ip##n; \ movq (%ip##n), %bits##n; \ orq $1, %bits##n; \ shlxq %rax, %bits##n, %bits##n movq %olimit, 48(%rsp) .p2align 6 .L_4X2_loop_body: /* We clobber r8, so store it on the stack */ movq %r8, 0(%rsp) /* Decode 5 symbols from each of the 4 streams (20 symbols total). */ FOR_EACH_STREAM_WITH_INDEX(DECODE, 0) FOR_EACH_STREAM_WITH_INDEX(DECODE, 1) FOR_EACH_STREAM_WITH_INDEX(DECODE, 2) FOR_EACH_STREAM_WITH_INDEX(DECODE, 3) FOR_EACH_STREAM_WITH_INDEX(DECODE, 4) /* Reload r8 */ movq 0(%rsp), %r8 FOR_EACH_STREAM(RELOAD_BITS) cmp %op3, 48(%rsp) ja .L_4X2_loop_body jmp .L_4X2_compute_olimit #undef DECODE #undef RELOAD_BITS .L_4X2_exit: addq $8, %rsp /* Restore stack (oend & olimit) */ pop %rax /* oend0 */ pop %rax /* oend1 */ pop %rax /* oend2 */ pop %rax /* oend3 */ pop %rax /* ilowest */ pop %rax /* olimit */ pop %rax /* arg */ /* Save ip / op / bits */ movq %ip0, 0(%rax) movq %ip1, 8(%rax) movq %ip2, 16(%rax) movq %ip3, 24(%rax) movq %op0, 32(%rax) movq %op1, 40(%rax) movq %op2, 48(%rax) movq %op3, 56(%rax) movq %bits0, 64(%rax) movq %bits1, 72(%rax) movq %bits2, 80(%rax) movq %bits3, 88(%rax) /* Restore registers */ pop %r15 pop %r14 pop %r13 pop %r12 pop %r11 pop %r10 pop %r9 pop %r8 pop %rdi pop %rsi pop %rbp pop %rdx pop %rcx pop %rbx pop %rax ret #endif
Vtyeshe/geoai-backend
2,264
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/psm-0.1.21/src/arch/x86_windows_gnu.s
/* FIXME: this works locally but not on appveyor??!? */ /* NOTE: fastcall calling convention used on all x86 targets */ .text .def @rust_psm_stack_direction@0 .scl 2 .type 32 .endef .globl @rust_psm_stack_direction@0 .p2align 4 @rust_psm_stack_direction@0: /* extern "fastcall" fn() -> u8 (%al) */ .cfi_startproc movb $2, %al # always descending on x86_64 retl .cfi_endproc .def @rust_psm_stack_pointer@0 .scl 2 .type 32 .endef .globl @rust_psm_stack_pointer@0 .p2align 4 @rust_psm_stack_pointer@0: /* extern "fastcall" fn() -> *mut u8 (%rax) */ .cfi_startproc leal 4(%esp), %eax retl .cfi_endproc .def @rust_psm_replace_stack@16 .scl 2 .type 32 .endef .globl @rust_psm_replace_stack@16 .p2align 4 @rust_psm_replace_stack@16: /* extern "fastcall" fn(%ecx: usize, %edx: extern "fastcall" fn(usize), 4(%esp): *mut u8) */ .cfi_startproc /* All we gotta do is set the stack pointer to 4(%esp) & tail-call the callback in %edx Note, that the callee expects the stack to be offset by 4 bytes (normally, a return address would be store there) off the required stack alignment on entry. To offset the stack in such a way we use the `calll` instruction, however it would also be possible to to use plain `jmpl` but would require to adjust the stack manually, which cannot be easily done, because the stack pointer argument is already stored in memory. */ movl 8(%esp), %eax mov %eax, %fs:0x08 movl 4(%esp), %esp mov %esp, %fs:0x04 calll *%edx ud2 .cfi_endproc .def @rust_psm_on_stack@16 .scl 2 .type 32 .endef .globl @rust_psm_on_stack@16 .p2align 4 @rust_psm_on_stack@16: /* extern "fastcall" fn(%ecx: usize, %edx: usize, 4(%esp): extern "fastcall" fn(usize, usize), 8(%esp): *mut u8) */ .cfi_startproc pushl %ebp .cfi_def_cfa %esp, 8 .cfi_offset %ebp, -8 pushl %fs:0x04 .cfi_def_cfa %esp, 12 pushl %fs:0x08 .cfi_def_cfa %esp, 16 movl %esp, %ebp .cfi_def_cfa_register %ebp movl 24(%ebp), %eax movl %eax, %fs:0x08 movl 20(%ebp), %esp movl %esp, %fs:0x04 calll *16(%ebp) movl %ebp, %esp popl %fs:0x08 .cfi_def_cfa %esp, 12 popl %fs:0x04 .cfi_def_cfa %esp, 8 popl %ebp .cfi_def_cfa %esp, 4 retl $12 .cfi_endproc
Vtyeshe/geoai-backend
1,963
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/psm-0.1.21/src/arch/powerpc32.s
#include "psm.h" /* FIXME: this probably does not cover all ABIs? Tested with sysv only, possibly works for AIX as well? */ .text .globl rust_psm_stack_direction .p2align 2 .type rust_psm_stack_direction,@function rust_psm_stack_direction: /* extern "C" fn() -> u8 */ .cfi_startproc li 3, STACK_DIRECTION_DESCENDING blr .rust_psm_stack_direction_end: .size rust_psm_stack_direction,.rust_psm_stack_direction_end-rust_psm_stack_direction .cfi_endproc .globl rust_psm_stack_pointer .p2align 2 .type rust_psm_stack_pointer,@function rust_psm_stack_pointer: /* extern "C" fn() -> *mut u8 */ .cfi_startproc mr 3, 1 blr .rust_psm_stack_pointer_end: .size rust_psm_stack_pointer,.rust_psm_stack_pointer_end-rust_psm_stack_pointer .cfi_endproc .globl rust_psm_replace_stack .p2align 2 .type rust_psm_replace_stack,@function rust_psm_replace_stack: /* extern "C" fn(3: usize, 4: extern "C" fn(usize), 5: *mut u8) */ .cfi_startproc /* NOTE: perhaps add a debug-assertion for stack alignment? */ addi 5, 5, -16 mr 1, 5 mtctr 4 bctr .rust_psm_replace_stack_end: .size rust_psm_replace_stack,.rust_psm_replace_stack_end-rust_psm_replace_stack .cfi_endproc .globl rust_psm_on_stack .p2align 2 .type rust_psm_on_stack,@function rust_psm_on_stack: /* extern "C" fn(3: usize, 4: usize, 5: extern "C" fn(usize, usize), 6: *mut u8) */ .cfi_startproc mflr 0 stw 0, -24(6) sub 6, 6, 1 addi 6, 6, -32 stwux 1, 1, 6 .cfi_def_cfa r1, 32 .cfi_offset r1, -32 .cfi_offset lr, -24 mtctr 5 bctrl lwz 0, 8(1) mtlr 0 .cfi_restore lr /* FIXME: after this instruction backtrace breaks until control returns to the caller That being said compiler-generated code has the same issue, so I guess that is fine for now? */ lwz 1, 0(1) .cfi_restore r1 blr .rust_psm_on_stack_end: .size rust_psm_on_stack,.rust_psm_on_stack_end-rust_psm_on_stack .cfi_endproc
Vtyeshe/geoai-backend
2,557
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/psm-0.1.21/src/arch/x86.s
#include "psm.h" /* NOTE: fastcall calling convention used on all x86 targets */ .text #if CFG_TARGET_OS_darwin || CFG_TARGET_OS_macos || CFG_TARGET_OS_ios #define GLOBL(fnname) .globl _##fnname #define TYPE(fnname) #define FUNCTION(fnname) _##fnname #define SIZE(fnname,endlabel) #else #define GLOBL(fnname) .globl fnname #define TYPE(fnname) .type fnname,@function #define FUNCTION(fnname) fnname #define SIZE(fnname,endlabel) .size fnname,endlabel-fnname #endif GLOBL(rust_psm_stack_direction) .p2align 4 TYPE(rust_psm_stack_direction) FUNCTION(rust_psm_stack_direction): /* extern "fastcall" fn() -> u8 (%al) */ .cfi_startproc movb $STACK_DIRECTION_DESCENDING, %al # always descending on x86_64 retl .rust_psm_stack_direction_end: SIZE(rust_psm_stack_direction,.rust_psm_stack_direction_end) .cfi_endproc GLOBL(rust_psm_stack_pointer) .p2align 4 TYPE(rust_psm_stack_pointer) FUNCTION(rust_psm_stack_pointer): /* extern "fastcall" fn() -> *mut u8 (%rax) */ .cfi_startproc leal 4(%esp), %eax retl .rust_psm_stack_pointer_end: SIZE(rust_psm_stack_pointer,.rust_psm_stack_pointer_end) .cfi_endproc GLOBL(rust_psm_replace_stack) .p2align 4 TYPE(rust_psm_replace_stack) FUNCTION(rust_psm_replace_stack): /* extern "fastcall" fn(%ecx: usize, %edx: extern "fastcall" fn(usize), 4(%esp): *mut u8) */ .cfi_startproc /* All we gotta do is set the stack pointer to 4(%esp) & tail-call the callback in %edx Note, that the callee expects the stack to be offset by 4 bytes (normally, a return address would be store there) off the required stack alignment on entry. To offset the stack in such a way we use the `calll` instruction, however it would also be possible to to use plain `jmpl` but would require to adjust the stack manually, which cannot be easily done, because the stack pointer argument is already stored in memory. */ movl 4(%esp), %esp calll *%edx ud2 .rust_psm_replace_stack_end: SIZE(rust_psm_replace_stack,.rust_psm_replace_stack_end) .cfi_endproc GLOBL(rust_psm_on_stack) .p2align 4 TYPE(rust_psm_on_stack) FUNCTION(rust_psm_on_stack): /* extern "fastcall" fn(%ecx: usize, %edx: usize, 4(%esp): extern "fastcall" fn(usize, usize), 8(%esp): *mut u8) */ .cfi_startproc pushl %ebp .cfi_def_cfa %esp, 8 .cfi_offset %ebp, -8 movl %esp, %ebp .cfi_def_cfa_register %ebp movl 12(%ebp), %esp calll *8(%ebp) movl %ebp, %esp popl %ebp .cfi_def_cfa %esp, 4 retl $8 .rust_psm_on_stack_end: SIZE(rust_psm_on_stack,.rust_psm_on_stack_end) .cfi_endproc
Vtyeshe/geoai-backend
2,235
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/psm-0.1.21/src/arch/x86_64.s
#include "psm.h" /* NOTE: sysv64 calling convention is used on all x86_64 targets, including Windows! */ .text #if CFG_TARGET_OS_darwin || CFG_TARGET_OS_macos || CFG_TARGET_OS_ios #define GLOBL(fnname) .globl _##fnname #define TYPE(fnname) #define FUNCTION(fnname) _##fnname #define SIZE(fnname,endlabel) #else #define GLOBL(fnname) .globl fnname #define TYPE(fnname) .type fnname,@function #define FUNCTION(fnname) fnname #define SIZE(fnname,endlabel) .size fnname,endlabel-fnname #endif GLOBL(rust_psm_stack_direction) .p2align 4 TYPE(rust_psm_stack_direction) FUNCTION(rust_psm_stack_direction): /* extern "sysv64" fn() -> u8 (%al) */ .cfi_startproc movb $STACK_DIRECTION_DESCENDING, %al # always descending on x86_64 retq .rust_psm_stack_direction_end: SIZE(rust_psm_stack_direction,.rust_psm_stack_direction_end) .cfi_endproc GLOBL(rust_psm_stack_pointer) .p2align 4 TYPE(rust_psm_stack_pointer) FUNCTION(rust_psm_stack_pointer): /* extern "sysv64" fn() -> *mut u8 (%rax) */ .cfi_startproc leaq 8(%rsp), %rax retq .rust_psm_stack_pointer_end: SIZE(rust_psm_stack_pointer,.rust_psm_stack_pointer_end) .cfi_endproc GLOBL(rust_psm_replace_stack) .p2align 4 TYPE(rust_psm_replace_stack) FUNCTION(rust_psm_replace_stack): /* extern "sysv64" fn(%rdi: usize, %rsi: extern "sysv64" fn(usize), %rdx: *mut u8) */ .cfi_startproc /* All we gotta do is set the stack pointer to %rdx & tail-call the callback in %rsi. 8-byte offset necessary to account for the "return" pointer that would otherwise be placed onto stack with a regular call */ leaq -8(%rdx), %rsp jmpq *%rsi .rust_psm_replace_stack_end: SIZE(rust_psm_replace_stack,.rust_psm_replace_stack_end) .cfi_endproc GLOBL(rust_psm_on_stack) .p2align 4 TYPE(rust_psm_on_stack) FUNCTION(rust_psm_on_stack): /* extern "sysv64" fn(%rdi: usize, %rsi: usize, %rdx: extern "sysv64" fn(usize, usize), %rcx: *mut u8) */ .cfi_startproc pushq %rbp .cfi_def_cfa %rsp, 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq %rcx, %rsp callq *%rdx movq %rbp, %rsp popq %rbp .cfi_def_cfa %rsp, 8 retq .rust_psm_on_stack_end: SIZE(rust_psm_on_stack,.rust_psm_on_stack_end) .cfi_endproc
Vtyeshe/geoai-backend
1,722
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/psm-0.1.21/src/arch/sparc_sysv.s
#include "psm.h" /* FIXME: this ABI has definitely not been verified at all */ .text .globl rust_psm_stack_direction .p2align 2 .type rust_psm_stack_direction,@function rust_psm_stack_direction: /* extern "C" fn() -> u8 */ .cfi_startproc jmpl %o7 + 8, %g0 mov STACK_DIRECTION_DESCENDING, %o0 .rust_psm_stack_direction_end: .size rust_psm_stack_direction,.rust_psm_stack_direction_end-rust_psm_stack_direction .cfi_endproc .globl rust_psm_stack_pointer .p2align 2 .type rust_psm_stack_pointer,@function rust_psm_stack_pointer: /* extern "C" fn() -> *mut u8 */ .cfi_startproc jmpl %o7 + 8, %g0 mov %o6, %o0 .rust_psm_stack_pointer_end: .size rust_psm_stack_pointer,.rust_psm_stack_pointer_end-rust_psm_stack_pointer .cfi_endproc .globl rust_psm_replace_stack .p2align 2 .type rust_psm_replace_stack,@function rust_psm_replace_stack: /* extern "C" fn(%i0: usize, %i1: extern "C" fn(usize), %i2: *mut u8) */ .cfi_startproc .cfi_def_cfa 0, 0 .cfi_return_column 0 jmpl %o1, %g0 /* WEIRD: Why is the LSB set for the %sp and %fp on SPARC?? */ add %o2, -0x3ff, %o6 .rust_psm_replace_stack_end: .size rust_psm_replace_stack,.rust_psm_replace_stack_end-rust_psm_replace_stack .cfi_endproc .globl rust_psm_on_stack .p2align 2 .type rust_psm_on_stack,@function rust_psm_on_stack: /* extern "C" fn(%i0: usize, %i1: usize, %i2: extern "C" fn(usize, usize), %i3: *mut u8) */ .cfi_startproc save %o3, -0x43f, %o6 .cfi_def_cfa_register %fp .cfi_window_save .cfi_register %r15, %r31 mov %i1, %o1 jmpl %i2, %o7 mov %i0, %o0 ret restore .rust_psm_on_stack_end: .size rust_psm_on_stack,.rust_psm_on_stack_end-rust_psm_on_stack .cfi_endproc
Vtyeshe/geoai-backend
1,938
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/psm-0.1.21/src/arch/sparc64.s
#include "psm.h" .text .globl rust_psm_stack_direction .p2align 2 .type rust_psm_stack_direction,@function rust_psm_stack_direction: /* extern "C" fn() -> u8 */ .cfi_startproc jmpl %o7 + 8, %g0 mov STACK_DIRECTION_DESCENDING, %o0 .rust_psm_stack_direction_end: .size rust_psm_stack_direction,.rust_psm_stack_direction_end-rust_psm_stack_direction .cfi_endproc .globl rust_psm_stack_pointer .p2align 2 .type rust_psm_stack_pointer,@function rust_psm_stack_pointer: /* extern "C" fn() -> *mut u8 */ .cfi_startproc jmpl %o7 + 8, %g0 mov %o6, %o0 .rust_psm_stack_pointer_end: .size rust_psm_stack_pointer,.rust_psm_stack_pointer_end-rust_psm_stack_pointer .cfi_endproc .globl rust_psm_replace_stack .p2align 2 .type rust_psm_replace_stack,@function rust_psm_replace_stack: /* extern "C" fn(%i0: usize, %i1: extern "C" fn(usize), %i2: *mut u8) */ .cfi_startproc .cfi_def_cfa 0, 0 .cfi_return_column 0 jmpl %o1, %g0 /* WEIRD: Why is the LSB set for the %sp and %fp on SPARC?? */ add %o2, -0x7ff, %o6 .rust_psm_replace_stack_end: .size rust_psm_replace_stack,.rust_psm_replace_stack_end-rust_psm_replace_stack .cfi_endproc .globl rust_psm_on_stack .p2align 2 .type rust_psm_on_stack,@function rust_psm_on_stack: /* extern "C" fn(%i0: usize, %i1: usize, %i2: extern "C" fn(usize, usize), %i3: *mut u8) */ .cfi_startproc /* The fact that locals and saved register windows are offset by 2kB is very nasty property of SPARC architecture and ABI. In this case it forces us to slice off 2kB of the stack space outright for no good reason other than adapting to a botched design. */ save %o3, -0x87f, %o6 .cfi_def_cfa_register %fp .cfi_window_save .cfi_register %r15, %r31 mov %i1, %o1 jmpl %i2, %o7 mov %i0, %o0 ret restore .rust_psm_on_stack_end: .size rust_psm_on_stack,.rust_psm_on_stack_end-rust_psm_on_stack .cfi_endproc
Vtyeshe/geoai-backend
1,569
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/psm-0.1.21/src/arch/riscv64.s
#include "psm.h" .text .globl rust_psm_stack_direction .p2align 2 .type rust_psm_stack_direction,@function rust_psm_stack_direction: /* extern "C" fn() -> u8 */ .cfi_startproc li x10, STACK_DIRECTION_DESCENDING jr x1 .rust_psm_stack_direction_end: .size rust_psm_stack_direction,.rust_psm_stack_direction_end-rust_psm_stack_direction .cfi_endproc .globl rust_psm_stack_pointer .p2align 2 .type rust_psm_stack_pointer,@function rust_psm_stack_pointer: /* extern "C" fn() -> *mut u8 */ .cfi_startproc add x10, x2, x0 jr x1 .rust_psm_stack_pointer_end: .size rust_psm_stack_pointer,.rust_psm_stack_pointer_end-rust_psm_stack_pointer .cfi_endproc .globl rust_psm_replace_stack .p2align 2 .type rust_psm_replace_stack,@function rust_psm_replace_stack: /* extern "C" fn(x10: usize, x11: extern "C" fn(usize), x12: *mut u8) */ .cfi_startproc add x2, x12, x0 jr x11 .rust_psm_replace_stack_end: .size rust_psm_replace_stack,.rust_psm_replace_stack_end-rust_psm_replace_stack .cfi_endproc .globl rust_psm_on_stack .p2align 2 .type rust_psm_on_stack,@function rust_psm_on_stack: /* extern "C" fn(x10: usize, x11: usize, x12: extern "C" fn(usize, usize), x13: *mut u8) */ .cfi_startproc sd x1, -8(x13) sd x2, -16(x13) addi x2, x13, -16 .cfi_def_cfa x2, 16 .cfi_offset x1, -8 .cfi_offset x2, -16 jalr x1, x12, 0 ld x1, 8(x2) .cfi_restore x1 ld x2, 0(x2) .cfi_restore x2 jr x1 .rust_psm_on_stack_end: .size rust_psm_on_stack,.rust_psm_on_stack_end-rust_psm_on_stack .cfi_endproc
Vtyeshe/geoai-backend
1,568
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/psm-0.1.21/src/arch/loongarch64.s
#include "psm.h" .text .globl rust_psm_stack_direction .align 2 .type rust_psm_stack_direction,@function rust_psm_stack_direction: /* extern "C" fn() -> u8 */ .cfi_startproc li.w $r4, STACK_DIRECTION_DESCENDING jr $r1 .rust_psm_stack_direction_end: .size rust_psm_stack_direction,.rust_psm_stack_direction_end-rust_psm_stack_direction .cfi_endproc .globl rust_psm_stack_pointer .align 2 .type rust_psm_stack_pointer,@function rust_psm_stack_pointer: /* extern "C" fn() -> *mut u8 */ .cfi_startproc move $r4, $r3 jr $r1 .rust_psm_stack_pointer_end: .size rust_psm_stack_pointer,.rust_psm_stack_pointer_end-rust_psm_stack_pointer .cfi_endproc .globl rust_psm_replace_stack .align 2 .type rust_psm_replace_stack,@function rust_psm_replace_stack: /* extern "C" fn(r4: usize, r5: extern "C" fn(usize), r6: *mut u8) */ .cfi_startproc move $r3, $r6 jr $r5 .rust_psm_replace_stack_end: .size rust_psm_replace_stack,.rust_psm_replace_stack_end-rust_psm_replace_stack .cfi_endproc .globl rust_psm_on_stack .align 2 .type rust_psm_on_stack,@function rust_psm_on_stack: /* extern "C" fn(r4: usize, r5: usize, r6: extern "C" fn(usize, usize), r7: *mut u8) */ .cfi_startproc st.d $r1, $r7, -8 st.d $r3, $r7, -16 addi.d $r3, $r7, -16 .cfi_def_cfa 3, 16 .cfi_offset 1, -8 .cfi_offset 3, -16 jirl $r1, $r6, 0 ld.d $r1, $r3, 8 .cfi_restore 1 ld.d $r3, $r3, 0 .cfi_restore 3 jr $r1 .rust_psm_on_stack_end: .size rust_psm_on_stack,.rust_psm_on_stack_end-rust_psm_on_stack .cfi_endproc
Vtyeshe/geoai-backend
2,137
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/psm-0.1.21/src/arch/aarch_aapcs64.s
#include "psm.h" .text #if CFG_TARGET_OS_darwin || CFG_TARGET_OS_macos || CFG_TARGET_OS_ios #define GLOBL(fnname) .globl _##fnname #define TYPE(fnname) #define FUNCTION(fnname) _##fnname #define SIZE(fnname,endlabel) #elif CFG_TARGET_OS_windows #define GLOBL(fnname) .globl fnname #define TYPE(fnname) #define FUNCTION(fnname) fnname #define SIZE(fnname,endlabel) #else #define GLOBL(fnname) .globl fnname #define TYPE(fnname) .type fnname,@function #define FUNCTION(fnname) fnname #define SIZE(fnname,endlabel) .size fnname,endlabel-fnname #endif GLOBL(rust_psm_stack_direction) .p2align 2 TYPE(rust_psm_stack_direction) FUNCTION(rust_psm_stack_direction): /* extern "C" fn() -> u8 */ .cfi_startproc orr w0, wzr, #STACK_DIRECTION_DESCENDING ret .rust_psm_stack_direction_end: SIZE(rust_psm_stack_direction,.rust_psm_stack_direction_end) .cfi_endproc GLOBL(rust_psm_stack_pointer) .p2align 2 TYPE(rust_psm_stack_pointer) FUNCTION(rust_psm_stack_pointer): /* extern "C" fn() -> *mut u8 */ .cfi_startproc mov x0, sp ret .rust_psm_stack_pointer_end: SIZE(rust_psm_stack_pointer,.rust_psm_stack_pointer_end) .cfi_endproc GLOBL(rust_psm_replace_stack) .p2align 2 TYPE(rust_psm_replace_stack) FUNCTION(rust_psm_replace_stack): /* extern "C" fn(r0: usize, r1: extern "C" fn(usize), r2: *mut u8) */ .cfi_startproc /* All we gotta do is set the stack pointer to %rdx & tail-call the callback in %rsi */ mov sp, x2 br x1 .rust_psm_replace_stack_end: SIZE(rust_psm_replace_stack,.rust_psm_replace_stack_end) .cfi_endproc GLOBL(rust_psm_on_stack) .p2align 2 TYPE(rust_psm_on_stack) FUNCTION(rust_psm_on_stack): /* extern "C" fn(r0: usize, r1: usize, r2: extern "C" fn(usize, usize), r3: *mut u8) */ .cfi_startproc stp x29, x30, [sp, #-16]! .cfi_def_cfa sp, 16 mov x29, sp .cfi_def_cfa x29, 16 .cfi_offset x29, -16 .cfi_offset x30, -8 mov sp, x3 blr x2 mov sp, x29 .cfi_def_cfa sp, 16 ldp x29, x30, [sp], #16 .cfi_def_cfa sp, 0 .cfi_restore x29 .cfi_restore x30 ret .rust_psm_on_stack_end: SIZE(rust_psm_on_stack,.rust_psm_on_stack_end) .cfi_endproc
Vtyeshe/geoai-backend
2,149
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/psm-0.1.21/src/arch/mips_eabi.s
/* Not only MIPS has 20 different ABIs... nobody tells anybody what specific variant of which ABI is used where. This is an "EABI" implementation based on the following page: http://www.cygwin.com/ml/binutils/2003-06/msg00436.html */ #include "psm.h" .set noreorder /* we’ll manage the delay slots on our own, thanks! */ .text .abicalls .globl rust_psm_stack_direction .p2align 2 .type rust_psm_stack_direction,@function .ent rust_psm_stack_direction /* extern "C" fn() -> u8 */ rust_psm_stack_direction: .cfi_startproc jr $31 addiu $2, $zero, STACK_DIRECTION_DESCENDING .end rust_psm_stack_direction .rust_psm_stack_direction_end: .size rust_psm_stack_direction,.rust_psm_stack_direction_end-rust_psm_stack_direction .cfi_endproc .globl rust_psm_stack_pointer .p2align 2 .type rust_psm_stack_pointer,@function .ent rust_psm_stack_pointer /* extern "C" fn() -> *mut u8 */ rust_psm_stack_pointer: .cfi_startproc jr $31 move $2, $29 .end rust_psm_stack_pointer .rust_psm_stack_pointer_end: .size rust_psm_stack_pointer,.rust_psm_stack_pointer_end-rust_psm_stack_pointer .cfi_endproc .globl rust_psm_replace_stack .p2align 2 .type rust_psm_replace_stack,@function .ent rust_psm_replace_stack /* extern "C" fn(r4: usize, r5: extern "C" fn(usize), r6: *mut u8) */ rust_psm_replace_stack: .cfi_startproc move $25, $5 jr $5 move $29, $6 .end rust_psm_replace_stack .rust_psm_replace_stack_end: .size rust_psm_replace_stack,.rust_psm_on_stack_end-rust_psm_on_stack .cfi_endproc .globl rust_psm_on_stack .p2align 2 .type rust_psm_on_stack,@function .ent rust_psm_on_stack /* extern "C" fn(r4: usize, r5: usize, r6: extern "C" fn(usize), r7: *mut u8) */ rust_psm_on_stack: .cfi_startproc sw $29, -4($7) sw $31, -8($7) .cfi_def_cfa 7, 0 .cfi_offset 31, -8 .cfi_offset 29, -4 move $25, $6 jalr $31, $6 addiu $29, $7, -8 .cfi_def_cfa 29, 8 lw $31, 0($29) .cfi_restore 31 lw $29, 4($29) .cfi_restore 29 jr $31 nop .end rust_psm_on_stack .rust_psm_on_stack_end: .size rust_psm_on_stack,.rust_psm_on_stack_end-rust_psm_on_stack .cfi_endproc
Vtyeshe/geoai-backend
1,694
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/psm-0.1.21/src/arch/wasm32.s
#include "psm.h" # Note that this function is not compiled when this package is uploaded to # crates.io, this source is only here as a reference for how the corresponding # wasm32.o was generated. This file can be compiled with: # # cpp psm/src/arch/wasm32.s | llvm-mc -o psm/src/arch/wasm32.o --arch=wasm32 -filetype=obj # # where you'll want to ensure that `llvm-mc` is from a relatively recent # version of LLVM. .globaltype __stack_pointer, i32 .globl rust_psm_stack_direction .type rust_psm_stack_direction,@function rust_psm_stack_direction: .functype rust_psm_stack_direction () -> (i32) i32.const STACK_DIRECTION_DESCENDING end_function .globl rust_psm_stack_pointer .type rust_psm_stack_pointer,@function rust_psm_stack_pointer: .functype rust_psm_stack_pointer () -> (i32) global.get __stack_pointer end_function .globl rust_psm_on_stack .type rust_psm_on_stack,@function rust_psm_on_stack: .functype rust_psm_on_stack (i32, i32, i32, i32) -> () # get our new stack argument, then save the old stack # pointer into that local local.get 3 global.get __stack_pointer local.set 3 global.set __stack_pointer # Call our indirect function specified local.get 0 local.get 1 local.get 2 call_indirect (i32, i32) -> () # restore the stack pointer before returning local.get 3 global.set __stack_pointer end_function .globl rust_psm_replace_stack .type rust_psm_replace_stack,@function rust_psm_replace_stack: .functype rust_psm_replace_stack (i32, i32, i32) -> () local.get 2 global.set __stack_pointer local.get 0 local.get 1 call_indirect (i32) -> () unreachable end_function
Vtyeshe/geoai-backend
2,080
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/psm-0.1.21/src/arch/zseries_linux.s
/* Implementation of stack swtiching routines for zSeries LINUX ABI. This ABI is used by the s390x-unknown-linux-gnu target. Documents used: * LINUX for zSeries: ELF Application Binary Interface Supplement (1st ed., 2001) (LNUX-1107-01) * z/Architecture: Principles of Operation (4th ed., 2004) (SA22-7832-03) */ #include "psm.h" .text .globl rust_psm_stack_direction .p2align 4 .type rust_psm_stack_direction,@function rust_psm_stack_direction: /* extern "C" fn() -> u8 */ .cfi_startproc lghi %r2, STACK_DIRECTION_DESCENDING br %r14 .rust_psm_stack_direction_end: .size rust_psm_stack_direction,.rust_psm_stack_direction_end-rust_psm_stack_direction .cfi_endproc .globl rust_psm_stack_pointer .p2align 4 .type rust_psm_stack_pointer,@function rust_psm_stack_pointer: /* extern "C" fn() -> *mut u8 */ .cfi_startproc la %r2, 0(%r15) br %r14 .rust_psm_stack_pointer_end: .size rust_psm_stack_pointer,.rust_psm_stack_pointer_end-rust_psm_stack_pointer .cfi_endproc .globl rust_psm_replace_stack .p2align 4 .type rust_psm_replace_stack,@function rust_psm_replace_stack: /* extern "C" fn(r2: usize, r3: extern "C" fn(usize), r4: *mut u8) */ .cfi_startproc /* FIXME: backtrace does not terminate cleanly for some reason */ lay %r15, -160(%r4) /* FIXME: this is `basr` instead of `br` purely to remove the backtrace link to the caller */ basr %r14, %r3 .rust_psm_replace_stack_end: .size rust_psm_replace_stack,.rust_psm_replace_stack_end-rust_psm_replace_stack .cfi_endproc .globl rust_psm_on_stack .p2align 4 .type rust_psm_on_stack,@function rust_psm_on_stack: /* extern "C" fn(r2: usize, r3: usize, r4: extern "C" fn(usize, usize), r5: *mut u8) */ .cfi_startproc stmg %r14, %r15, -16(%r5) lay %r15, -176(%r5) .cfi_def_cfa %r15, 176 .cfi_offset %r14, -16 .cfi_offset %r15, -8 basr %r14, %r4 lmg %r14, %r15, 160(%r15) .cfi_restore %r14 .cfi_restore %r15 br %r14 .rust_psm_on_stack_end: .size rust_psm_on_stack,.rust_psm_on_stack_end-rust_psm_on_stack .cfi_endproc
Vtyeshe/geoai-backend
2,144
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/psm-0.1.21/src/arch/mips64_eabi.s
/* Not only MIPS has 20 different ABIs... nobody tells anybody what specific variant of which ABI is used where. This is an "EABI" implementation based on the following page: http://www.cygwin.com/ml/binutils/2003-06/msg00436.html */ #include "psm.h" .set noreorder /* we’ll manage the delay slots on our own, thanks! */ .text .globl rust_psm_stack_direction .p2align 3 .type rust_psm_stack_direction,@function .ent rust_psm_stack_direction /* extern "C" fn() -> u8 */ rust_psm_stack_direction: .cfi_startproc jr $31 addiu $2, $zero, STACK_DIRECTION_DESCENDING .end rust_psm_stack_direction .rust_psm_stack_direction_end: .size rust_psm_stack_direction,.rust_psm_stack_direction_end-rust_psm_stack_direction .cfi_endproc .globl rust_psm_stack_pointer .p2align 3 .type rust_psm_stack_pointer,@function .ent rust_psm_stack_pointer /* extern "C" fn() -> *mut u8 */ rust_psm_stack_pointer: .cfi_startproc jr $31 move $2, $29 .end rust_psm_stack_pointer .rust_psm_stack_pointer_end: .size rust_psm_stack_pointer,.rust_psm_stack_pointer_end-rust_psm_stack_pointer .cfi_endproc .globl rust_psm_replace_stack .p2align 3 .type rust_psm_replace_stack,@function .ent rust_psm_replace_stack /* extern "C" fn(r4: usize, r5: extern "C" fn(usize), r6: *mut u8) */ rust_psm_replace_stack: .cfi_startproc move $25, $5 jr $5 move $29, $6 .end rust_psm_replace_stack .rust_psm_replace_stack_end: .size rust_psm_replace_stack,.rust_psm_on_stack_end-rust_psm_on_stack .cfi_endproc .globl rust_psm_on_stack .p2align 3 .type rust_psm_on_stack,@function .ent rust_psm_on_stack /* extern "C" fn(r4: usize, r5: usize, r6: extern "C" fn(usize), r7: *mut u8) */ rust_psm_on_stack: .cfi_startproc sd $29, -8($7) sd $31, -16($7) .cfi_def_cfa 7, 0 .cfi_offset 31, -16 .cfi_offset 29, -8 move $25, $6 jalr $31, $6 daddiu $29, $7, -16 .cfi_def_cfa 29, 16 ld $31, 0($29) .cfi_restore 31 ld $29, 8($29) .cfi_restore 29 jr $31 nop .end rust_psm_on_stack .rust_psm_on_stack_end: .size rust_psm_on_stack,.rust_psm_on_stack_end-rust_psm_on_stack .cfi_endproc
Vtyeshe/geoai-backend
1,571
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/psm-0.1.21/src/arch/riscv.s
#include "psm.h" .text .globl rust_psm_stack_direction .p2align 2 .type rust_psm_stack_direction,@function rust_psm_stack_direction: /* extern "C" fn() -> u8 */ .cfi_startproc li x10, STACK_DIRECTION_DESCENDING jr x1 .rust_psm_stack_direction_end: .size rust_psm_stack_direction,.rust_psm_stack_direction_end-rust_psm_stack_direction .cfi_endproc .globl rust_psm_stack_pointer .p2align 2 .type rust_psm_stack_pointer,@function rust_psm_stack_pointer: /* extern "C" fn() -> *mut u8 */ .cfi_startproc add x10, x2, x0 jr x1 .rust_psm_stack_pointer_end: .size rust_psm_stack_pointer,.rust_psm_stack_pointer_end-rust_psm_stack_pointer .cfi_endproc .globl rust_psm_replace_stack .p2align 2 .type rust_psm_replace_stack,@function rust_psm_replace_stack: /* extern "C" fn(x10: usize, x11: extern "C" fn(usize), x12: *mut u8) */ .cfi_startproc add x2, x12, x0 jr x11 .rust_psm_replace_stack_end: .size rust_psm_replace_stack,.rust_psm_replace_stack_end-rust_psm_replace_stack .cfi_endproc .globl rust_psm_on_stack .p2align 2 .type rust_psm_on_stack,@function rust_psm_on_stack: /* extern "C" fn(x10: usize, x11: usize, x12: extern "C" fn(usize, usize), x13: *mut u8) */ .cfi_startproc sw x1, -12(x13) sw x2, -16(x13) addi x2, x13, -16 .cfi_def_cfa x2, 16 .cfi_offset x1, -12 .cfi_offset x2, -16 jalr x1, x12, 0 lw x1, 4(x2) .cfi_restore x1 lw x2, 0(x2) .cfi_restore x2 jr x1 .rust_psm_on_stack_end: .size rust_psm_on_stack,.rust_psm_on_stack_end-rust_psm_on_stack .cfi_endproc
Vtyeshe/geoai-backend
2,045
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/psm-0.1.21/src/arch/powerpc64_openpower.s
/* Implementation of stack swtiching routines for OpenPOWER 64-bit ELF ABI The specification can be found at http://openpowerfoundation.org/wp-content/uploads/resources/leabi/content/ch_preface.html This ABI is usually used by the ppc64le targets. */ #include "psm.h" .text .abiversion 2 .globl rust_psm_stack_direction .p2align 4 .type rust_psm_stack_direction,@function rust_psm_stack_direction: /* extern "C" fn() -> u8 */ .cfi_startproc li 3, STACK_DIRECTION_DESCENDING blr .rust_psm_stack_direction_end: .size rust_psm_stack_direction,.rust_psm_stack_direction_end-rust_psm_stack_direction .cfi_endproc .globl rust_psm_stack_pointer .p2align 4 .type rust_psm_stack_pointer,@function rust_psm_stack_pointer: /* extern "C" fn() -> *mut u8 */ .cfi_startproc mr 3, 1 blr .rust_psm_stack_pointer_end: .size rust_psm_stack_pointer,.rust_psm_stack_pointer_end-rust_psm_stack_pointer .cfi_endproc .globl rust_psm_replace_stack .p2align 4 .type rust_psm_replace_stack,@function rust_psm_replace_stack: /* extern "C" fn(3: usize, 4: extern "C" fn(usize), 5: *mut u8) */ .cfi_startproc addi 5, 5, -32 mtctr 4 mr 12, 4 mr 1, 5 bctr .rust_psm_replace_stack_end: .size rust_psm_replace_stack,.rust_psm_replace_stack_end-rust_psm_replace_stack .cfi_endproc .globl rust_psm_on_stack .p2align 4 .type rust_psm_on_stack,@function rust_psm_on_stack: /* extern "C" fn(3: usize, 4: usize, 5: extern "C" fn(usize, usize), 6: *mut u8) */ .cfi_startproc mflr 0 std 0, -8(6) std 2, -24(6) sub 6, 6, 1 addi 6, 6, -48 stdux 1, 1, 6 .cfi_def_cfa r1, 48 .cfi_offset r1, -48 .cfi_offset r2, -24 .cfi_offset lr, -8 mr 12, 5 mtctr 5 bctrl ld 2, 24(1) .cfi_restore r2 ld 0, 40(1) mtlr 0 .cfi_restore lr /* FIXME: after this instructin backtrace breaks until control returns to the caller */ ld 1, 0(1) blr .rust_psm_on_stack_end: .size rust_psm_on_stack,.rust_psm_on_stack_end-rust_psm_on_stack .cfi_endproc
Vtyeshe/geoai-backend
2,299
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/psm-0.1.21/src/arch/arm_aapcs.s
#include "psm.h" .text .syntax unified #if CFG_TARGET_OS_darwin || CFG_TARGET_OS_macos || CFG_TARGET_OS_ios #define GLOBL(fnname) .globl _##fnname #define THUMBTYPE(fnname) .thumb_func _##fnname #define FUNCTION(fnname) _##fnname #define THUMBFN .code 16 #define SIZE(fnname,endlabel) #define FNSTART #define CANTUNWIND #define FNEND #else #define GLOBL(fnname) .globl fnname #define THUMBTYPE(fnname) .type fnname,%function #define FUNCTION(fnname) fnname #define THUMBFN .code 16 #define SIZE(fnname,endlabel) .size fnname,endlabel-fnname #define FNSTART .fnstart #define CANTUNWIND .cantunwind #define FNEND .fnend #endif GLOBL(rust_psm_stack_direction) .p2align 2 THUMBTYPE(rust_psm_stack_direction) THUMBFN FUNCTION(rust_psm_stack_direction): /* extern "C" fn() -> u8 */ FNSTART .cfi_startproc /* movs to support Thumb-1 */ movs r0, #STACK_DIRECTION_DESCENDING bx lr .rust_psm_stack_direction_end: SIZE(rust_psm_stack_direction,.rust_psm_stack_direction_end) .cfi_endproc CANTUNWIND FNEND GLOBL(rust_psm_stack_pointer) .p2align 2 THUMBTYPE(rust_psm_stack_pointer) THUMBFN FUNCTION(rust_psm_stack_pointer): /* extern "C" fn() -> *mut u8 */ FNSTART .cfi_startproc mov r0, sp bx lr .rust_psm_stack_pointer_end: SIZE(rust_psm_stack_pointer,.rust_psm_stack_pointer_end) .cfi_endproc CANTUNWIND FNEND GLOBL(rust_psm_replace_stack) .p2align 2 THUMBTYPE(rust_psm_replace_stack) THUMBFN FUNCTION(rust_psm_replace_stack): /* extern "C" fn(r0: usize, r1: extern "C" fn(usize), r2: *mut u8) */ FNSTART .cfi_startproc /* All we gotta do is set the stack pointer to %rdx & tail-call the callback in %rsi */ mov sp, r2 bx r1 .rust_psm_replace_stack_end: SIZE(rust_psm_replace_stack,.rust_psm_replace_stack_end) .cfi_endproc CANTUNWIND FNEND GLOBL(rust_psm_on_stack) .p2align 2 THUMBTYPE(rust_psm_on_stack) THUMBFN FUNCTION(rust_psm_on_stack): /* extern "C" fn(r0: usize, r1: usize, r2: extern "C" fn(usize, usize), r3: *mut u8) */ FNSTART .cfi_startproc push {r4, lr} .cfi_def_cfa_offset 8 mov r4, sp .cfi_def_cfa_register r4 .cfi_offset lr, -4 .cfi_offset r4, -8 mov sp, r3 blx r2 mov sp, r4 .cfi_restore sp pop {r4, pc} .rust_psm_on_stack_end: SIZE(rust_psm_on_stack,.rust_psm_on_stack_end) .cfi_endproc CANTUNWIND FNEND
Vtyeshe/geoai-backend
2,541
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/psm-0.1.21/src/arch/powerpc64.s
/* Implementation of the AIX-like PowerPC ABI. Seems to be used by the big-endian PowerPC targets. The following references were used during the implementation of this code: https://www.ibm.com/support/knowledgecenter/en/ssw_aix_72/com.ibm.aix.alangref/idalangref_rntime_stack.htm https://www.ibm.com/support/knowledgecenter/en/ssw_aix_72/com.ibm.aix.alangref/idalangref_reg_use_conv.htm https://www.ibm.com/developerworks/library/l-powasm4/index.html */ #include "psm.h" .text .globl rust_psm_stack_direction .p2align 2 .type rust_psm_stack_direction,@function rust_psm_stack_direction: /* extern "C" fn() -> u8 */ .cfi_startproc li 3, STACK_DIRECTION_DESCENDING blr .rust_psm_stack_direction_end: .size rust_psm_stack_direction,.rust_psm_stack_direction_end-rust_psm_stack_direction .cfi_endproc .globl rust_psm_stack_pointer .p2align 2 .type rust_psm_stack_pointer,@function rust_psm_stack_pointer: /* extern "C" fn() -> *mut u8 */ .cfi_startproc mr 3, 1 blr .rust_psm_stack_pointer_end: .size rust_psm_stack_pointer,.rust_psm_stack_pointer_end-rust_psm_stack_pointer .cfi_endproc .globl rust_psm_replace_stack .p2align 2 .type rust_psm_replace_stack,@function rust_psm_replace_stack: /* extern "C" fn(3: usize, 4: extern "C" fn(usize), 5: *mut u8) */ .cfi_startproc ld 2, 8(4) ld 4, 0(4) /* do not allocate the whole 112-byte sized frame, we know wont be used */ addi 5, 5, -48 mr 1, 5 mtctr 4 bctr .rust_psm_replace_stack_end: .size rust_psm_replace_stack,.rust_psm_replace_stack_end-rust_psm_replace_stack .cfi_endproc .globl rust_psm_on_stack .p2align 2 .type rust_psm_on_stack,@function rust_psm_on_stack: /* extern "C" fn(3: usize, 4: usize, 5: extern "C" fn(usize, usize), 6: *mut u8) */ .cfi_startproc mflr 0 std 2, -72(6) std 0, -8(6) sub 6, 6, 1 addi 6, 6, -112 stdux 1, 1, 6 .cfi_def_cfa r1, 112 .cfi_offset r1, -112 .cfi_offset r2, -72 .cfi_offset lr, -8 /* load the function pointer from TOC and make the call */ ld 2, 8(5) ld 5, 0(5) mtctr 5 bctrl ld 2, 40(1) .cfi_restore r2 ld 0, 104(1) mtlr 0 .cfi_restore lr /* FIXME: after this instruction backtrace breaks until control returns to the caller. That being said compiler-generated code has the same issue, so I guess that is fine for now? */ ld 1, 0(1) .cfi_restore r1 blr .rust_psm_on_stack_end: .size rust_psm_on_stack,.rust_psm_on_stack_end-rust_psm_on_stack .cfi_endproc
Vtyeshe/geoai-backend
3,609
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/psm-0.1.21/src/arch/powerpc64_aix.s
.csect .text[PR],2 .file "powerpc64_aix.s" .globl rust_psm_stack_direction[DS] .globl .rust_psm_stack_direction .align 4 .csect rust_psm_stack_direction[DS],3 .vbyte 8, .rust_psm_stack_direction .vbyte 8, TOC[TC0] .vbyte 8, 0 .csect .text[PR],2 .rust_psm_stack_direction: # extern "C" fn() -> u8 li 3, 2 blr L..rust_psm_stack_direction_end: # Following bytes form the traceback table on AIX. # For specification, see https://www.ibm.com/docs/en/aix/7.2?topic=processor-traceback-tables. # For implementation, see https://github.com/llvm/llvm-project/blob/main/llvm/lib/Target/PowerPC/PPCAsmPrinter.cpp, # `PPCAIXAsmPrinter::emitTracebackTable`. .vbyte 4, 0x00000000 # Traceback table begin, for unwinder to search the table. .byte 0x00 # Version = 0 .byte 0x09 # Language = CPlusPlus, since rust is using C++-like LSDA. .byte 0x20 # -IsGlobaLinkage, -IsOutOfLineEpilogOrPrologue # +HasTraceBackTableOffset, -IsInternalProcedure # -HasControlledStorage, -IsTOCless # -IsFloatingPointPresent # -IsFloatingPointOperationLogOrAbortEnabled .byte 0x40 # -IsInterruptHandler, +IsFunctionNamePresent, -IsAllocaUsed # OnConditionDirective = 0, -IsCRSaved, -IsLRSaved .byte 0x80 # +IsBackChainStored, -IsFixup, NumOfFPRsSaved = 0 .byte 0x00 # -HasExtensionTable, -HasVectorInfo, NumOfGPRsSaved = 0 .byte 0x00 # NumberOfFixedParms = 0 .byte 0x01 # NumberOfFPParms = 0, +HasParmsOnStack .vbyte 4, L..rust_psm_stack_direction_end-.rust_psm_stack_direction #Function size .vbyte 2, 0x0018 # Function name len = 24 .byte "rust_psm_stack_direction" # Function Name .globl rust_psm_stack_pointer[DS] .globl .rust_psm_stack_pointer .align 4 .csect rust_psm_stack_pointer[DS],3 .vbyte 8, .rust_psm_stack_pointer .vbyte 8, TOC[TC0] .vbyte 8, 0 .csect .text[PR],2 .rust_psm_stack_pointer: # extern "C" fn() -> *mut u8 mr 3, 1 blr L..rust_psm_stack_pointer_end: .vbyte 4, 0x00000000 .byte 0x00 .byte 0x09 .byte 0x20 .byte 0x40 .byte 0x80 .byte 0x00 .byte 0x00 .byte 0x01 .vbyte 4, L..rust_psm_stack_pointer_end-.rust_psm_stack_pointer .vbyte 2, 0x0016 .byte "rust_psm_stack_pointer" .globl rust_psm_replace_stack[DS] .globl .rust_psm_replace_stack .align 4 .csect rust_psm_replace_stack[DS],3 .vbyte 8, .rust_psm_replace_stack .vbyte 8, TOC[TC0] .vbyte 8, 0 .csect .text[PR],2 .rust_psm_replace_stack: # extern "C" fn(3: usize, 4: extern "C" fn(usize), 5: *mut u8) # Load the function pointer and toc pointer from TOC and make the call. ld 2, 8(4) ld 4, 0(4) addi 5, 5, -48 mr 1, 5 mtctr 4 bctr L..rust_psm_replace_stack_end: .vbyte 4, 0x00000000 .byte 0x00 .byte 0x09 .byte 0x20 .byte 0x40 .byte 0x80 .byte 0x00 .byte 0x03 .byte 0x01 .vbyte 4, 0x00000000 # Parameter type = i, i, i .vbyte 4, L..rust_psm_replace_stack_end-.rust_psm_replace_stack .vbyte 2, 0x0016 .byte "rust_psm_replace_stack" .globl rust_psm_on_stack[DS] .globl .rust_psm_on_stack .align 4 .csect rust_psm_on_stack[DS],3 .vbyte 8, .rust_psm_on_stack .vbyte 8, TOC[TC0] .vbyte 8, 0 .csect .text[PR],2 .rust_psm_on_stack: # extern "C" fn(3: usize, 4: usize, 5: extern "C" fn(usize, usize), 6: *mut u8) mflr 0 std 2, -72(6) std 0, -8(6) sub 6, 6, 1 addi 6, 6, -112 stdux 1, 1, 6 ld 2, 8(5) ld 5, 0(5) mtctr 5 bctrl ld 2, 40(1) ld 0, 104(1) mtlr 0 ld 1, 0(1) blr L..rust_psm_on_stack_end: .vbyte 4, 0x00000000 .byte 0x00 .byte 0x09 .byte 0x20 .byte 0x41 .byte 0x80 .byte 0x00 .byte 0x04 .byte 0x01 .vbyte 4, 0x00000000 # Parameter type = i, i, i, i .vbyte 4, L..rust_psm_on_stack_end-.rust_psm_on_stack .vbyte 2, 0x0011 .byte "rust_psm_on_stack" .toc
Vtyeshe/geoai-backend
2,218
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/psm-0.1.21/src/arch/x86_64_windows_gnu.s
.text .def rust_psm_stack_direction .scl 2 .type 32 .endef .globl rust_psm_stack_direction .p2align 4 rust_psm_stack_direction: /* extern "sysv64" fn() -> u8 (%al) */ .cfi_startproc movb $2, %al # always descending on x86_64 retq .cfi_endproc .def rust_psm_stack_pointer .scl 2 .type 32 .endef .globl rust_psm_stack_pointer .p2align 4 rust_psm_stack_pointer: /* extern "sysv64" fn() -> *mut u8 (%rax) */ .cfi_startproc leaq 8(%rsp), %rax retq .cfi_endproc .def rust_psm_replace_stack .scl 2 .type 32 .endef .globl rust_psm_replace_stack .p2align 4 rust_psm_replace_stack: /* extern "sysv64" fn(%rdi: usize, %rsi: extern "sysv64" fn(usize), %rdx: *mut u8, %rcx: *mut u8) */ .cfi_startproc /* All we gotta do is set the stack pointer to %rdx & tail-call the callback in %rsi. 8-byte offset necessary to account for the "return" pointer that would otherwise be placed onto stack with a regular call */ movq %gs:0x08, %rdx movq %gs:0x10, %rcx leaq -8(%rdx), %rsp jmpq *%rsi .cfi_endproc .def rust_psm_on_stack .scl 2 .type 32 .endef .globl rust_psm_on_stack .p2align 4 rust_psm_on_stack: /* extern "sysv64" fn(%rdi: usize, %rsi: usize, %rdx: extern "sysv64" fn(usize, usize), %rcx: *mut u8, %r8: *mut u8) NB: on Windows for SEH to work at all, the pointers in TIB, thread information block, need to be fixed up. Otherwise, it seems that exception mechanism on Windows will not bother looking for exception handlers at *all* if they happen to fall outside the are specified in TIB. This necessitates an API difference from the usual 4-argument signature used elsewhere. FIXME: this needs a catch-all exception handler that aborts in case somebody unwinds into here. */ .cfi_startproc pushq %rbp .cfi_def_cfa %rsp, 16 .cfi_offset %rbp, -16 pushq %gs:0x08 .cfi_def_cfa %rsp, 24 pushq %gs:0x10 .cfi_def_cfa %rsp, 32 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq %rcx, %gs:0x08 movq %r8, %gs:0x10 movq %rcx, %rsp callq *%rdx movq %rbp, %rsp popq %gs:0x10 .cfi_def_cfa %rsp, 24 popq %gs:0x08 .cfi_def_cfa %rsp, 16 popq %rbp .cfi_def_cfa %rsp, 8 retq .cfi_endproc
Vtyeshe/geoai-backend
73,987
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/ring-0.17.13/pregenerated/chacha20_poly1305_armv8-win64.S
// This file is generated from a similarly-named Perl script in the BoringSSL // source tree. Do not edit by hand. #include <ring-core/asm_base.h> #if !defined(OPENSSL_NO_ASM) && defined(OPENSSL_AARCH64) && defined(_WIN32) .section .rodata .align 7 Lchacha20_consts: .byte 'e','x','p','a','n','d',' ','3','2','-','b','y','t','e',' ','k' Linc: .long 1,2,3,4 Lrol8: .byte 3,0,1,2, 7,4,5,6, 11,8,9,10, 15,12,13,14 Lclamp: .quad 0x0FFFFFFC0FFFFFFF, 0x0FFFFFFC0FFFFFFC .text .def Lpoly_hash_ad_internal .type 32 .endef .align 6 Lpoly_hash_ad_internal: .cfi_startproc cbnz x4, Lpoly_hash_intro ret Lpoly_hash_intro: cmp x4, #16 b.lt Lpoly_hash_ad_tail ldp x11, x12, [x3], 16 adds x8, x8, x11 adcs x9, x9, x12 adc x10, x10, x15 mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0 umulh x12, x8, x16 mul x13, x9, x16 umulh x14, x9, x16 adds x12, x12, x13 mul x13, x10, x16 adc x13, x13, x14 mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0] umulh x8, x8, x17 adds x12, x12, x14 mul x14, x9, x17 umulh x9, x9, x17 adcs x14, x14, x8 mul x10, x10, x17 adc x10, x10, x9 adds x13, x13, x14 adc x14, x10, xzr and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3) and x8, x13, #-4 extr x13, x14, x13, #2 adds x8, x8, x11 lsr x11, x14, #2 adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits adds x8, x8, x13 adcs x9, x9, x12 adc x10, x10, xzr // At this point acc2 has the value of 4 at most sub x4, x4, #16 b Lpoly_hash_ad_internal Lpoly_hash_ad_tail: cbz x4, Lpoly_hash_ad_ret eor v20.16b, v20.16b, v20.16b // Use T0 to load the AAD sub x4, x4, #1 Lpoly_hash_tail_16_compose: ext v20.16b, v20.16b, v20.16b, #15 ldrb w11, [x3, x4] mov v20.b[0], w11 subs x4, x4, #1 b.ge Lpoly_hash_tail_16_compose mov x11, v20.d[0] mov x12, v20.d[1] adds x8, x8, x11 adcs x9, x9, x12 adc x10, x10, x15 mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0 umulh x12, x8, x16 mul x13, x9, x16 umulh x14, x9, x16 adds x12, x12, x13 mul x13, x10, x16 adc x13, x13, x14 mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0] umulh x8, x8, x17 adds x12, x12, x14 mul x14, x9, x17 umulh x9, x9, x17 adcs x14, x14, x8 mul x10, x10, x17 adc x10, x10, x9 adds x13, x13, x14 adc x14, x10, xzr and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3) and x8, x13, #-4 extr x13, x14, x13, #2 adds x8, x8, x11 lsr x11, x14, #2 adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits adds x8, x8, x13 adcs x9, x9, x12 adc x10, x10, xzr // At this point acc2 has the value of 4 at most Lpoly_hash_ad_ret: ret .cfi_endproc ///////////////////////////////// // // void chacha20_poly1305_seal(uint8_t *pt, uint8_t *ct, size_t len_in, uint8_t *ad, size_t len_ad, union open_data *seal_data); // .globl chacha20_poly1305_seal .def chacha20_poly1305_seal .type 32 .endef .align 6 chacha20_poly1305_seal: AARCH64_SIGN_LINK_REGISTER .cfi_startproc stp x29, x30, [sp, #-80]! .cfi_def_cfa_offset 80 .cfi_offset w30, -72 .cfi_offset w29, -80 mov x29, sp // We probably could do .cfi_def_cfa w29, 80 at this point, but since // we don't actually use the frame pointer like that, it's probably not // worth bothering. stp d8, d9, [sp, #16] stp d10, d11, [sp, #32] stp d12, d13, [sp, #48] stp d14, d15, [sp, #64] .cfi_offset b15, -8 .cfi_offset b14, -16 .cfi_offset b13, -24 .cfi_offset b12, -32 .cfi_offset b11, -40 .cfi_offset b10, -48 .cfi_offset b9, -56 .cfi_offset b8, -64 adrp x11, Lchacha20_consts add x11, x11, :lo12:Lchacha20_consts ld1 {v24.16b - v27.16b}, [x11] // Load the CONSTS, INC, ROL8 and CLAMP values ld1 {v28.16b - v30.16b}, [x5] mov x15, #1 // Prepare the Poly1305 state mov x8, #0 mov x9, #0 mov x10, #0 ldr x12, [x5, #56] // The total cipher text length includes extra_in_len add x12, x12, x2 mov v31.d[0], x4 // Store the input and aad lengths mov v31.d[1], x12 cmp x2, #128 b.le Lseal_128 // Optimization for smaller buffers // Initially we prepare 5 ChaCha20 blocks. Four to encrypt up to 4 blocks (256 bytes) of plaintext, // and one for the Poly1305 R and S keys. The first four blocks (A0-A3..D0-D3) are computed vertically, // the fifth block (A4-D4) horizontally. ld4r {v0.4s,v1.4s,v2.4s,v3.4s}, [x11] mov v4.16b, v24.16b ld4r {v5.4s,v6.4s,v7.4s,v8.4s}, [x5], #16 mov v9.16b, v28.16b ld4r {v10.4s,v11.4s,v12.4s,v13.4s}, [x5], #16 mov v14.16b, v29.16b ld4r {v15.4s,v16.4s,v17.4s,v18.4s}, [x5] add v15.4s, v15.4s, v25.4s mov v19.16b, v30.16b sub x5, x5, #32 mov x6, #10 .align 5 Lseal_init_rounds: add v0.4s, v0.4s, v5.4s add v1.4s, v1.4s, v6.4s add v2.4s, v2.4s, v7.4s add v3.4s, v3.4s, v8.4s add v4.4s, v4.4s, v9.4s eor v15.16b, v15.16b, v0.16b eor v16.16b, v16.16b, v1.16b eor v17.16b, v17.16b, v2.16b eor v18.16b, v18.16b, v3.16b eor v19.16b, v19.16b, v4.16b rev32 v15.8h, v15.8h rev32 v16.8h, v16.8h rev32 v17.8h, v17.8h rev32 v18.8h, v18.8h rev32 v19.8h, v19.8h add v10.4s, v10.4s, v15.4s add v11.4s, v11.4s, v16.4s add v12.4s, v12.4s, v17.4s add v13.4s, v13.4s, v18.4s add v14.4s, v14.4s, v19.4s eor v5.16b, v5.16b, v10.16b eor v6.16b, v6.16b, v11.16b eor v7.16b, v7.16b, v12.16b eor v8.16b, v8.16b, v13.16b eor v9.16b, v9.16b, v14.16b ushr v20.4s, v5.4s, #20 sli v20.4s, v5.4s, #12 ushr v5.4s, v6.4s, #20 sli v5.4s, v6.4s, #12 ushr v6.4s, v7.4s, #20 sli v6.4s, v7.4s, #12 ushr v7.4s, v8.4s, #20 sli v7.4s, v8.4s, #12 ushr v8.4s, v9.4s, #20 sli v8.4s, v9.4s, #12 add v0.4s, v0.4s, v20.4s add v1.4s, v1.4s, v5.4s add v2.4s, v2.4s, v6.4s add v3.4s, v3.4s, v7.4s add v4.4s, v4.4s, v8.4s eor v15.16b, v15.16b, v0.16b eor v16.16b, v16.16b, v1.16b eor v17.16b, v17.16b, v2.16b eor v18.16b, v18.16b, v3.16b eor v19.16b, v19.16b, v4.16b tbl v15.16b, {v15.16b}, v26.16b tbl v16.16b, {v16.16b}, v26.16b tbl v17.16b, {v17.16b}, v26.16b tbl v18.16b, {v18.16b}, v26.16b tbl v19.16b, {v19.16b}, v26.16b add v10.4s, v10.4s, v15.4s add v11.4s, v11.4s, v16.4s add v12.4s, v12.4s, v17.4s add v13.4s, v13.4s, v18.4s add v14.4s, v14.4s, v19.4s eor v20.16b, v20.16b, v10.16b eor v5.16b, v5.16b, v11.16b eor v6.16b, v6.16b, v12.16b eor v7.16b, v7.16b, v13.16b eor v8.16b, v8.16b, v14.16b ushr v9.4s, v8.4s, #25 sli v9.4s, v8.4s, #7 ushr v8.4s, v7.4s, #25 sli v8.4s, v7.4s, #7 ushr v7.4s, v6.4s, #25 sli v7.4s, v6.4s, #7 ushr v6.4s, v5.4s, #25 sli v6.4s, v5.4s, #7 ushr v5.4s, v20.4s, #25 sli v5.4s, v20.4s, #7 ext v9.16b, v9.16b, v9.16b, #4 ext v14.16b, v14.16b, v14.16b, #8 ext v19.16b, v19.16b, v19.16b, #12 add v0.4s, v0.4s, v6.4s add v1.4s, v1.4s, v7.4s add v2.4s, v2.4s, v8.4s add v3.4s, v3.4s, v5.4s add v4.4s, v4.4s, v9.4s eor v18.16b, v18.16b, v0.16b eor v15.16b, v15.16b, v1.16b eor v16.16b, v16.16b, v2.16b eor v17.16b, v17.16b, v3.16b eor v19.16b, v19.16b, v4.16b rev32 v18.8h, v18.8h rev32 v15.8h, v15.8h rev32 v16.8h, v16.8h rev32 v17.8h, v17.8h rev32 v19.8h, v19.8h add v12.4s, v12.4s, v18.4s add v13.4s, v13.4s, v15.4s add v10.4s, v10.4s, v16.4s add v11.4s, v11.4s, v17.4s add v14.4s, v14.4s, v19.4s eor v6.16b, v6.16b, v12.16b eor v7.16b, v7.16b, v13.16b eor v8.16b, v8.16b, v10.16b eor v5.16b, v5.16b, v11.16b eor v9.16b, v9.16b, v14.16b ushr v20.4s, v6.4s, #20 sli v20.4s, v6.4s, #12 ushr v6.4s, v7.4s, #20 sli v6.4s, v7.4s, #12 ushr v7.4s, v8.4s, #20 sli v7.4s, v8.4s, #12 ushr v8.4s, v5.4s, #20 sli v8.4s, v5.4s, #12 ushr v5.4s, v9.4s, #20 sli v5.4s, v9.4s, #12 add v0.4s, v0.4s, v20.4s add v1.4s, v1.4s, v6.4s add v2.4s, v2.4s, v7.4s add v3.4s, v3.4s, v8.4s add v4.4s, v4.4s, v5.4s eor v18.16b, v18.16b, v0.16b eor v15.16b, v15.16b, v1.16b eor v16.16b, v16.16b, v2.16b eor v17.16b, v17.16b, v3.16b eor v19.16b, v19.16b, v4.16b tbl v18.16b, {v18.16b}, v26.16b tbl v15.16b, {v15.16b}, v26.16b tbl v16.16b, {v16.16b}, v26.16b tbl v17.16b, {v17.16b}, v26.16b tbl v19.16b, {v19.16b}, v26.16b add v12.4s, v12.4s, v18.4s add v13.4s, v13.4s, v15.4s add v10.4s, v10.4s, v16.4s add v11.4s, v11.4s, v17.4s add v14.4s, v14.4s, v19.4s eor v20.16b, v20.16b, v12.16b eor v6.16b, v6.16b, v13.16b eor v7.16b, v7.16b, v10.16b eor v8.16b, v8.16b, v11.16b eor v5.16b, v5.16b, v14.16b ushr v9.4s, v5.4s, #25 sli v9.4s, v5.4s, #7 ushr v5.4s, v8.4s, #25 sli v5.4s, v8.4s, #7 ushr v8.4s, v7.4s, #25 sli v8.4s, v7.4s, #7 ushr v7.4s, v6.4s, #25 sli v7.4s, v6.4s, #7 ushr v6.4s, v20.4s, #25 sli v6.4s, v20.4s, #7 ext v9.16b, v9.16b, v9.16b, #12 ext v14.16b, v14.16b, v14.16b, #8 ext v19.16b, v19.16b, v19.16b, #4 subs x6, x6, #1 b.hi Lseal_init_rounds add v15.4s, v15.4s, v25.4s mov x11, #4 dup v20.4s, w11 add v25.4s, v25.4s, v20.4s zip1 v20.4s, v0.4s, v1.4s zip2 v21.4s, v0.4s, v1.4s zip1 v22.4s, v2.4s, v3.4s zip2 v23.4s, v2.4s, v3.4s zip1 v0.2d, v20.2d, v22.2d zip2 v1.2d, v20.2d, v22.2d zip1 v2.2d, v21.2d, v23.2d zip2 v3.2d, v21.2d, v23.2d zip1 v20.4s, v5.4s, v6.4s zip2 v21.4s, v5.4s, v6.4s zip1 v22.4s, v7.4s, v8.4s zip2 v23.4s, v7.4s, v8.4s zip1 v5.2d, v20.2d, v22.2d zip2 v6.2d, v20.2d, v22.2d zip1 v7.2d, v21.2d, v23.2d zip2 v8.2d, v21.2d, v23.2d zip1 v20.4s, v10.4s, v11.4s zip2 v21.4s, v10.4s, v11.4s zip1 v22.4s, v12.4s, v13.4s zip2 v23.4s, v12.4s, v13.4s zip1 v10.2d, v20.2d, v22.2d zip2 v11.2d, v20.2d, v22.2d zip1 v12.2d, v21.2d, v23.2d zip2 v13.2d, v21.2d, v23.2d zip1 v20.4s, v15.4s, v16.4s zip2 v21.4s, v15.4s, v16.4s zip1 v22.4s, v17.4s, v18.4s zip2 v23.4s, v17.4s, v18.4s zip1 v15.2d, v20.2d, v22.2d zip2 v16.2d, v20.2d, v22.2d zip1 v17.2d, v21.2d, v23.2d zip2 v18.2d, v21.2d, v23.2d add v4.4s, v4.4s, v24.4s add v9.4s, v9.4s, v28.4s and v4.16b, v4.16b, v27.16b add v0.4s, v0.4s, v24.4s add v5.4s, v5.4s, v28.4s add v10.4s, v10.4s, v29.4s add v15.4s, v15.4s, v30.4s add v1.4s, v1.4s, v24.4s add v6.4s, v6.4s, v28.4s add v11.4s, v11.4s, v29.4s add v16.4s, v16.4s, v30.4s add v2.4s, v2.4s, v24.4s add v7.4s, v7.4s, v28.4s add v12.4s, v12.4s, v29.4s add v17.4s, v17.4s, v30.4s add v3.4s, v3.4s, v24.4s add v8.4s, v8.4s, v28.4s add v13.4s, v13.4s, v29.4s add v18.4s, v18.4s, v30.4s mov x16, v4.d[0] // Move the R key to GPRs mov x17, v4.d[1] mov v27.16b, v9.16b // Store the S key bl Lpoly_hash_ad_internal mov x3, x0 cmp x2, #256 b.le Lseal_tail ld1 {v20.16b - v23.16b}, [x1], #64 eor v20.16b, v20.16b, v0.16b eor v21.16b, v21.16b, v5.16b eor v22.16b, v22.16b, v10.16b eor v23.16b, v23.16b, v15.16b st1 {v20.16b - v23.16b}, [x0], #64 ld1 {v20.16b - v23.16b}, [x1], #64 eor v20.16b, v20.16b, v1.16b eor v21.16b, v21.16b, v6.16b eor v22.16b, v22.16b, v11.16b eor v23.16b, v23.16b, v16.16b st1 {v20.16b - v23.16b}, [x0], #64 ld1 {v20.16b - v23.16b}, [x1], #64 eor v20.16b, v20.16b, v2.16b eor v21.16b, v21.16b, v7.16b eor v22.16b, v22.16b, v12.16b eor v23.16b, v23.16b, v17.16b st1 {v20.16b - v23.16b}, [x0], #64 ld1 {v20.16b - v23.16b}, [x1], #64 eor v20.16b, v20.16b, v3.16b eor v21.16b, v21.16b, v8.16b eor v22.16b, v22.16b, v13.16b eor v23.16b, v23.16b, v18.16b st1 {v20.16b - v23.16b}, [x0], #64 sub x2, x2, #256 mov x6, #4 // In the first run of the loop we need to hash 256 bytes, therefore we hash one block for the first 4 rounds mov x7, #6 // and two blocks for the remaining 6, for a total of (1 * 4 + 2 * 6) * 16 = 256 Lseal_main_loop: adrp x11, Lchacha20_consts add x11, x11, :lo12:Lchacha20_consts ld4r {v0.4s,v1.4s,v2.4s,v3.4s}, [x11] mov v4.16b, v24.16b ld4r {v5.4s,v6.4s,v7.4s,v8.4s}, [x5], #16 mov v9.16b, v28.16b ld4r {v10.4s,v11.4s,v12.4s,v13.4s}, [x5], #16 mov v14.16b, v29.16b ld4r {v15.4s,v16.4s,v17.4s,v18.4s}, [x5] add v15.4s, v15.4s, v25.4s mov v19.16b, v30.16b eor v20.16b, v20.16b, v20.16b //zero not v21.16b, v20.16b // -1 sub v21.4s, v25.4s, v21.4s // Add +1 ext v20.16b, v21.16b, v20.16b, #12 // Get the last element (counter) add v19.4s, v19.4s, v20.4s sub x5, x5, #32 .align 5 Lseal_main_loop_rounds: add v0.4s, v0.4s, v5.4s add v1.4s, v1.4s, v6.4s add v2.4s, v2.4s, v7.4s add v3.4s, v3.4s, v8.4s add v4.4s, v4.4s, v9.4s eor v15.16b, v15.16b, v0.16b eor v16.16b, v16.16b, v1.16b eor v17.16b, v17.16b, v2.16b eor v18.16b, v18.16b, v3.16b eor v19.16b, v19.16b, v4.16b rev32 v15.8h, v15.8h rev32 v16.8h, v16.8h rev32 v17.8h, v17.8h rev32 v18.8h, v18.8h rev32 v19.8h, v19.8h add v10.4s, v10.4s, v15.4s add v11.4s, v11.4s, v16.4s add v12.4s, v12.4s, v17.4s add v13.4s, v13.4s, v18.4s add v14.4s, v14.4s, v19.4s eor v5.16b, v5.16b, v10.16b eor v6.16b, v6.16b, v11.16b eor v7.16b, v7.16b, v12.16b eor v8.16b, v8.16b, v13.16b eor v9.16b, v9.16b, v14.16b ushr v20.4s, v5.4s, #20 sli v20.4s, v5.4s, #12 ushr v5.4s, v6.4s, #20 sli v5.4s, v6.4s, #12 ushr v6.4s, v7.4s, #20 sli v6.4s, v7.4s, #12 ushr v7.4s, v8.4s, #20 sli v7.4s, v8.4s, #12 ushr v8.4s, v9.4s, #20 sli v8.4s, v9.4s, #12 add v0.4s, v0.4s, v20.4s add v1.4s, v1.4s, v5.4s add v2.4s, v2.4s, v6.4s add v3.4s, v3.4s, v7.4s add v4.4s, v4.4s, v8.4s eor v15.16b, v15.16b, v0.16b eor v16.16b, v16.16b, v1.16b eor v17.16b, v17.16b, v2.16b eor v18.16b, v18.16b, v3.16b eor v19.16b, v19.16b, v4.16b tbl v15.16b, {v15.16b}, v26.16b tbl v16.16b, {v16.16b}, v26.16b tbl v17.16b, {v17.16b}, v26.16b tbl v18.16b, {v18.16b}, v26.16b tbl v19.16b, {v19.16b}, v26.16b add v10.4s, v10.4s, v15.4s add v11.4s, v11.4s, v16.4s add v12.4s, v12.4s, v17.4s add v13.4s, v13.4s, v18.4s add v14.4s, v14.4s, v19.4s eor v20.16b, v20.16b, v10.16b eor v5.16b, v5.16b, v11.16b eor v6.16b, v6.16b, v12.16b eor v7.16b, v7.16b, v13.16b eor v8.16b, v8.16b, v14.16b ushr v9.4s, v8.4s, #25 sli v9.4s, v8.4s, #7 ushr v8.4s, v7.4s, #25 sli v8.4s, v7.4s, #7 ushr v7.4s, v6.4s, #25 sli v7.4s, v6.4s, #7 ushr v6.4s, v5.4s, #25 sli v6.4s, v5.4s, #7 ushr v5.4s, v20.4s, #25 sli v5.4s, v20.4s, #7 ext v9.16b, v9.16b, v9.16b, #4 ext v14.16b, v14.16b, v14.16b, #8 ext v19.16b, v19.16b, v19.16b, #12 ldp x11, x12, [x3], 16 adds x8, x8, x11 adcs x9, x9, x12 adc x10, x10, x15 mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0 umulh x12, x8, x16 mul x13, x9, x16 umulh x14, x9, x16 adds x12, x12, x13 mul x13, x10, x16 adc x13, x13, x14 mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0] umulh x8, x8, x17 adds x12, x12, x14 mul x14, x9, x17 umulh x9, x9, x17 adcs x14, x14, x8 mul x10, x10, x17 adc x10, x10, x9 adds x13, x13, x14 adc x14, x10, xzr and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3) and x8, x13, #-4 extr x13, x14, x13, #2 adds x8, x8, x11 lsr x11, x14, #2 adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits adds x8, x8, x13 adcs x9, x9, x12 adc x10, x10, xzr // At this point acc2 has the value of 4 at most add v0.4s, v0.4s, v6.4s add v1.4s, v1.4s, v7.4s add v2.4s, v2.4s, v8.4s add v3.4s, v3.4s, v5.4s add v4.4s, v4.4s, v9.4s eor v18.16b, v18.16b, v0.16b eor v15.16b, v15.16b, v1.16b eor v16.16b, v16.16b, v2.16b eor v17.16b, v17.16b, v3.16b eor v19.16b, v19.16b, v4.16b rev32 v18.8h, v18.8h rev32 v15.8h, v15.8h rev32 v16.8h, v16.8h rev32 v17.8h, v17.8h rev32 v19.8h, v19.8h add v12.4s, v12.4s, v18.4s add v13.4s, v13.4s, v15.4s add v10.4s, v10.4s, v16.4s add v11.4s, v11.4s, v17.4s add v14.4s, v14.4s, v19.4s eor v6.16b, v6.16b, v12.16b eor v7.16b, v7.16b, v13.16b eor v8.16b, v8.16b, v10.16b eor v5.16b, v5.16b, v11.16b eor v9.16b, v9.16b, v14.16b ushr v20.4s, v6.4s, #20 sli v20.4s, v6.4s, #12 ushr v6.4s, v7.4s, #20 sli v6.4s, v7.4s, #12 ushr v7.4s, v8.4s, #20 sli v7.4s, v8.4s, #12 ushr v8.4s, v5.4s, #20 sli v8.4s, v5.4s, #12 ushr v5.4s, v9.4s, #20 sli v5.4s, v9.4s, #12 add v0.4s, v0.4s, v20.4s add v1.4s, v1.4s, v6.4s add v2.4s, v2.4s, v7.4s add v3.4s, v3.4s, v8.4s add v4.4s, v4.4s, v5.4s eor v18.16b, v18.16b, v0.16b eor v15.16b, v15.16b, v1.16b eor v16.16b, v16.16b, v2.16b eor v17.16b, v17.16b, v3.16b eor v19.16b, v19.16b, v4.16b tbl v18.16b, {v18.16b}, v26.16b tbl v15.16b, {v15.16b}, v26.16b tbl v16.16b, {v16.16b}, v26.16b tbl v17.16b, {v17.16b}, v26.16b tbl v19.16b, {v19.16b}, v26.16b add v12.4s, v12.4s, v18.4s add v13.4s, v13.4s, v15.4s add v10.4s, v10.4s, v16.4s add v11.4s, v11.4s, v17.4s add v14.4s, v14.4s, v19.4s eor v20.16b, v20.16b, v12.16b eor v6.16b, v6.16b, v13.16b eor v7.16b, v7.16b, v10.16b eor v8.16b, v8.16b, v11.16b eor v5.16b, v5.16b, v14.16b ushr v9.4s, v5.4s, #25 sli v9.4s, v5.4s, #7 ushr v5.4s, v8.4s, #25 sli v5.4s, v8.4s, #7 ushr v8.4s, v7.4s, #25 sli v8.4s, v7.4s, #7 ushr v7.4s, v6.4s, #25 sli v7.4s, v6.4s, #7 ushr v6.4s, v20.4s, #25 sli v6.4s, v20.4s, #7 ext v9.16b, v9.16b, v9.16b, #12 ext v14.16b, v14.16b, v14.16b, #8 ext v19.16b, v19.16b, v19.16b, #4 subs x6, x6, #1 b.ge Lseal_main_loop_rounds ldp x11, x12, [x3], 16 adds x8, x8, x11 adcs x9, x9, x12 adc x10, x10, x15 mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0 umulh x12, x8, x16 mul x13, x9, x16 umulh x14, x9, x16 adds x12, x12, x13 mul x13, x10, x16 adc x13, x13, x14 mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0] umulh x8, x8, x17 adds x12, x12, x14 mul x14, x9, x17 umulh x9, x9, x17 adcs x14, x14, x8 mul x10, x10, x17 adc x10, x10, x9 adds x13, x13, x14 adc x14, x10, xzr and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3) and x8, x13, #-4 extr x13, x14, x13, #2 adds x8, x8, x11 lsr x11, x14, #2 adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits adds x8, x8, x13 adcs x9, x9, x12 adc x10, x10, xzr // At this point acc2 has the value of 4 at most subs x7, x7, #1 b.gt Lseal_main_loop_rounds eor v20.16b, v20.16b, v20.16b //zero not v21.16b, v20.16b // -1 sub v21.4s, v25.4s, v21.4s // Add +1 ext v20.16b, v21.16b, v20.16b, #12 // Get the last element (counter) add v19.4s, v19.4s, v20.4s add v15.4s, v15.4s, v25.4s mov x11, #5 dup v20.4s, w11 add v25.4s, v25.4s, v20.4s zip1 v20.4s, v0.4s, v1.4s zip2 v21.4s, v0.4s, v1.4s zip1 v22.4s, v2.4s, v3.4s zip2 v23.4s, v2.4s, v3.4s zip1 v0.2d, v20.2d, v22.2d zip2 v1.2d, v20.2d, v22.2d zip1 v2.2d, v21.2d, v23.2d zip2 v3.2d, v21.2d, v23.2d zip1 v20.4s, v5.4s, v6.4s zip2 v21.4s, v5.4s, v6.4s zip1 v22.4s, v7.4s, v8.4s zip2 v23.4s, v7.4s, v8.4s zip1 v5.2d, v20.2d, v22.2d zip2 v6.2d, v20.2d, v22.2d zip1 v7.2d, v21.2d, v23.2d zip2 v8.2d, v21.2d, v23.2d zip1 v20.4s, v10.4s, v11.4s zip2 v21.4s, v10.4s, v11.4s zip1 v22.4s, v12.4s, v13.4s zip2 v23.4s, v12.4s, v13.4s zip1 v10.2d, v20.2d, v22.2d zip2 v11.2d, v20.2d, v22.2d zip1 v12.2d, v21.2d, v23.2d zip2 v13.2d, v21.2d, v23.2d zip1 v20.4s, v15.4s, v16.4s zip2 v21.4s, v15.4s, v16.4s zip1 v22.4s, v17.4s, v18.4s zip2 v23.4s, v17.4s, v18.4s zip1 v15.2d, v20.2d, v22.2d zip2 v16.2d, v20.2d, v22.2d zip1 v17.2d, v21.2d, v23.2d zip2 v18.2d, v21.2d, v23.2d add v0.4s, v0.4s, v24.4s add v5.4s, v5.4s, v28.4s add v10.4s, v10.4s, v29.4s add v15.4s, v15.4s, v30.4s add v1.4s, v1.4s, v24.4s add v6.4s, v6.4s, v28.4s add v11.4s, v11.4s, v29.4s add v16.4s, v16.4s, v30.4s add v2.4s, v2.4s, v24.4s add v7.4s, v7.4s, v28.4s add v12.4s, v12.4s, v29.4s add v17.4s, v17.4s, v30.4s add v3.4s, v3.4s, v24.4s add v8.4s, v8.4s, v28.4s add v13.4s, v13.4s, v29.4s add v18.4s, v18.4s, v30.4s add v4.4s, v4.4s, v24.4s add v9.4s, v9.4s, v28.4s add v14.4s, v14.4s, v29.4s add v19.4s, v19.4s, v30.4s cmp x2, #320 b.le Lseal_tail ld1 {v20.16b - v23.16b}, [x1], #64 eor v20.16b, v20.16b, v0.16b eor v21.16b, v21.16b, v5.16b eor v22.16b, v22.16b, v10.16b eor v23.16b, v23.16b, v15.16b st1 {v20.16b - v23.16b}, [x0], #64 ld1 {v20.16b - v23.16b}, [x1], #64 eor v20.16b, v20.16b, v1.16b eor v21.16b, v21.16b, v6.16b eor v22.16b, v22.16b, v11.16b eor v23.16b, v23.16b, v16.16b st1 {v20.16b - v23.16b}, [x0], #64 ld1 {v20.16b - v23.16b}, [x1], #64 eor v20.16b, v20.16b, v2.16b eor v21.16b, v21.16b, v7.16b eor v22.16b, v22.16b, v12.16b eor v23.16b, v23.16b, v17.16b st1 {v20.16b - v23.16b}, [x0], #64 ld1 {v20.16b - v23.16b}, [x1], #64 eor v20.16b, v20.16b, v3.16b eor v21.16b, v21.16b, v8.16b eor v22.16b, v22.16b, v13.16b eor v23.16b, v23.16b, v18.16b st1 {v20.16b - v23.16b}, [x0], #64 ld1 {v20.16b - v23.16b}, [x1], #64 eor v20.16b, v20.16b, v4.16b eor v21.16b, v21.16b, v9.16b eor v22.16b, v22.16b, v14.16b eor v23.16b, v23.16b, v19.16b st1 {v20.16b - v23.16b}, [x0], #64 sub x2, x2, #320 mov x6, #0 mov x7, #10 // For the remainder of the loop we always hash and encrypt 320 bytes per iteration b Lseal_main_loop Lseal_tail: // This part of the function handles the storage and authentication of the last [0,320) bytes // We assume A0-A4 ... D0-D4 hold at least inl (320 max) bytes of the stream data. cmp x2, #64 b.lt Lseal_tail_64 // Store and authenticate 64B blocks per iteration ld1 {v20.16b - v23.16b}, [x1], #64 eor v20.16b, v20.16b, v0.16b eor v21.16b, v21.16b, v5.16b eor v22.16b, v22.16b, v10.16b eor v23.16b, v23.16b, v15.16b mov x11, v20.d[0] mov x12, v20.d[1] adds x8, x8, x11 adcs x9, x9, x12 adc x10, x10, x15 mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0 umulh x12, x8, x16 mul x13, x9, x16 umulh x14, x9, x16 adds x12, x12, x13 mul x13, x10, x16 adc x13, x13, x14 mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0] umulh x8, x8, x17 adds x12, x12, x14 mul x14, x9, x17 umulh x9, x9, x17 adcs x14, x14, x8 mul x10, x10, x17 adc x10, x10, x9 adds x13, x13, x14 adc x14, x10, xzr and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3) and x8, x13, #-4 extr x13, x14, x13, #2 adds x8, x8, x11 lsr x11, x14, #2 adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits adds x8, x8, x13 adcs x9, x9, x12 adc x10, x10, xzr // At this point acc2 has the value of 4 at most mov x11, v21.d[0] mov x12, v21.d[1] adds x8, x8, x11 adcs x9, x9, x12 adc x10, x10, x15 mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0 umulh x12, x8, x16 mul x13, x9, x16 umulh x14, x9, x16 adds x12, x12, x13 mul x13, x10, x16 adc x13, x13, x14 mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0] umulh x8, x8, x17 adds x12, x12, x14 mul x14, x9, x17 umulh x9, x9, x17 adcs x14, x14, x8 mul x10, x10, x17 adc x10, x10, x9 adds x13, x13, x14 adc x14, x10, xzr and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3) and x8, x13, #-4 extr x13, x14, x13, #2 adds x8, x8, x11 lsr x11, x14, #2 adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits adds x8, x8, x13 adcs x9, x9, x12 adc x10, x10, xzr // At this point acc2 has the value of 4 at most mov x11, v22.d[0] mov x12, v22.d[1] adds x8, x8, x11 adcs x9, x9, x12 adc x10, x10, x15 mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0 umulh x12, x8, x16 mul x13, x9, x16 umulh x14, x9, x16 adds x12, x12, x13 mul x13, x10, x16 adc x13, x13, x14 mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0] umulh x8, x8, x17 adds x12, x12, x14 mul x14, x9, x17 umulh x9, x9, x17 adcs x14, x14, x8 mul x10, x10, x17 adc x10, x10, x9 adds x13, x13, x14 adc x14, x10, xzr and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3) and x8, x13, #-4 extr x13, x14, x13, #2 adds x8, x8, x11 lsr x11, x14, #2 adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits adds x8, x8, x13 adcs x9, x9, x12 adc x10, x10, xzr // At this point acc2 has the value of 4 at most mov x11, v23.d[0] mov x12, v23.d[1] adds x8, x8, x11 adcs x9, x9, x12 adc x10, x10, x15 mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0 umulh x12, x8, x16 mul x13, x9, x16 umulh x14, x9, x16 adds x12, x12, x13 mul x13, x10, x16 adc x13, x13, x14 mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0] umulh x8, x8, x17 adds x12, x12, x14 mul x14, x9, x17 umulh x9, x9, x17 adcs x14, x14, x8 mul x10, x10, x17 adc x10, x10, x9 adds x13, x13, x14 adc x14, x10, xzr and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3) and x8, x13, #-4 extr x13, x14, x13, #2 adds x8, x8, x11 lsr x11, x14, #2 adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits adds x8, x8, x13 adcs x9, x9, x12 adc x10, x10, xzr // At this point acc2 has the value of 4 at most st1 {v20.16b - v23.16b}, [x0], #64 sub x2, x2, #64 // Shift the state left by 64 bytes for the next iteration of the loop mov v0.16b, v1.16b mov v5.16b, v6.16b mov v10.16b, v11.16b mov v15.16b, v16.16b mov v1.16b, v2.16b mov v6.16b, v7.16b mov v11.16b, v12.16b mov v16.16b, v17.16b mov v2.16b, v3.16b mov v7.16b, v8.16b mov v12.16b, v13.16b mov v17.16b, v18.16b mov v3.16b, v4.16b mov v8.16b, v9.16b mov v13.16b, v14.16b mov v18.16b, v19.16b b Lseal_tail Lseal_tail_64: ldp x3, x4, [x5, #48] // extra_in_len and extra_in_ptr // Here we handle the last [0,64) bytes of plaintext cmp x2, #16 b.lt Lseal_tail_16 // Each iteration encrypt and authenticate a 16B block ld1 {v20.16b}, [x1], #16 eor v20.16b, v20.16b, v0.16b mov x11, v20.d[0] mov x12, v20.d[1] adds x8, x8, x11 adcs x9, x9, x12 adc x10, x10, x15 mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0 umulh x12, x8, x16 mul x13, x9, x16 umulh x14, x9, x16 adds x12, x12, x13 mul x13, x10, x16 adc x13, x13, x14 mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0] umulh x8, x8, x17 adds x12, x12, x14 mul x14, x9, x17 umulh x9, x9, x17 adcs x14, x14, x8 mul x10, x10, x17 adc x10, x10, x9 adds x13, x13, x14 adc x14, x10, xzr and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3) and x8, x13, #-4 extr x13, x14, x13, #2 adds x8, x8, x11 lsr x11, x14, #2 adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits adds x8, x8, x13 adcs x9, x9, x12 adc x10, x10, xzr // At this point acc2 has the value of 4 at most st1 {v20.16b}, [x0], #16 sub x2, x2, #16 // Shift the state left by 16 bytes for the next iteration of the loop mov v0.16b, v5.16b mov v5.16b, v10.16b mov v10.16b, v15.16b b Lseal_tail_64 Lseal_tail_16: // Here we handle the last [0,16) bytes of ciphertext that require a padded block cbz x2, Lseal_hash_extra eor v20.16b, v20.16b, v20.16b // Use T0 to load the plaintext/extra in eor v21.16b, v21.16b, v21.16b // Use T1 to generate an AND mask that will only mask the ciphertext bytes not v22.16b, v20.16b mov x6, x2 add x1, x1, x2 cbz x4, Lseal_tail_16_compose // No extra data to pad with, zero padding mov x7, #16 // We need to load some extra_in first for padding sub x7, x7, x2 cmp x4, x7 csel x7, x4, x7, lt // Load the minimum of extra_in_len and the amount needed to fill the register mov x12, x7 add x3, x3, x7 sub x4, x4, x7 Lseal_tail16_compose_extra_in: ext v20.16b, v20.16b, v20.16b, #15 ldrb w11, [x3, #-1]! mov v20.b[0], w11 subs x7, x7, #1 b.gt Lseal_tail16_compose_extra_in add x3, x3, x12 Lseal_tail_16_compose: ext v20.16b, v20.16b, v20.16b, #15 ldrb w11, [x1, #-1]! mov v20.b[0], w11 ext v21.16b, v22.16b, v21.16b, #15 subs x2, x2, #1 b.gt Lseal_tail_16_compose and v0.16b, v0.16b, v21.16b eor v20.16b, v20.16b, v0.16b mov v21.16b, v20.16b Lseal_tail_16_store: umov w11, v20.b[0] strb w11, [x0], #1 ext v20.16b, v20.16b, v20.16b, #1 subs x6, x6, #1 b.gt Lseal_tail_16_store // Hash in the final ct block concatenated with extra_in mov x11, v21.d[0] mov x12, v21.d[1] adds x8, x8, x11 adcs x9, x9, x12 adc x10, x10, x15 mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0 umulh x12, x8, x16 mul x13, x9, x16 umulh x14, x9, x16 adds x12, x12, x13 mul x13, x10, x16 adc x13, x13, x14 mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0] umulh x8, x8, x17 adds x12, x12, x14 mul x14, x9, x17 umulh x9, x9, x17 adcs x14, x14, x8 mul x10, x10, x17 adc x10, x10, x9 adds x13, x13, x14 adc x14, x10, xzr and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3) and x8, x13, #-4 extr x13, x14, x13, #2 adds x8, x8, x11 lsr x11, x14, #2 adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits adds x8, x8, x13 adcs x9, x9, x12 adc x10, x10, xzr // At this point acc2 has the value of 4 at most Lseal_hash_extra: cbz x4, Lseal_finalize Lseal_hash_extra_loop: cmp x4, #16 b.lt Lseal_hash_extra_tail ld1 {v20.16b}, [x3], #16 mov x11, v20.d[0] mov x12, v20.d[1] adds x8, x8, x11 adcs x9, x9, x12 adc x10, x10, x15 mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0 umulh x12, x8, x16 mul x13, x9, x16 umulh x14, x9, x16 adds x12, x12, x13 mul x13, x10, x16 adc x13, x13, x14 mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0] umulh x8, x8, x17 adds x12, x12, x14 mul x14, x9, x17 umulh x9, x9, x17 adcs x14, x14, x8 mul x10, x10, x17 adc x10, x10, x9 adds x13, x13, x14 adc x14, x10, xzr and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3) and x8, x13, #-4 extr x13, x14, x13, #2 adds x8, x8, x11 lsr x11, x14, #2 adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits adds x8, x8, x13 adcs x9, x9, x12 adc x10, x10, xzr // At this point acc2 has the value of 4 at most sub x4, x4, #16 b Lseal_hash_extra_loop Lseal_hash_extra_tail: cbz x4, Lseal_finalize eor v20.16b, v20.16b, v20.16b // Use T0 to load the remaining extra ciphertext add x3, x3, x4 Lseal_hash_extra_load: ext v20.16b, v20.16b, v20.16b, #15 ldrb w11, [x3, #-1]! mov v20.b[0], w11 subs x4, x4, #1 b.gt Lseal_hash_extra_load // Hash in the final padded extra_in blcok mov x11, v20.d[0] mov x12, v20.d[1] adds x8, x8, x11 adcs x9, x9, x12 adc x10, x10, x15 mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0 umulh x12, x8, x16 mul x13, x9, x16 umulh x14, x9, x16 adds x12, x12, x13 mul x13, x10, x16 adc x13, x13, x14 mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0] umulh x8, x8, x17 adds x12, x12, x14 mul x14, x9, x17 umulh x9, x9, x17 adcs x14, x14, x8 mul x10, x10, x17 adc x10, x10, x9 adds x13, x13, x14 adc x14, x10, xzr and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3) and x8, x13, #-4 extr x13, x14, x13, #2 adds x8, x8, x11 lsr x11, x14, #2 adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits adds x8, x8, x13 adcs x9, x9, x12 adc x10, x10, xzr // At this point acc2 has the value of 4 at most Lseal_finalize: mov x11, v31.d[0] mov x12, v31.d[1] adds x8, x8, x11 adcs x9, x9, x12 adc x10, x10, x15 mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0 umulh x12, x8, x16 mul x13, x9, x16 umulh x14, x9, x16 adds x12, x12, x13 mul x13, x10, x16 adc x13, x13, x14 mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0] umulh x8, x8, x17 adds x12, x12, x14 mul x14, x9, x17 umulh x9, x9, x17 adcs x14, x14, x8 mul x10, x10, x17 adc x10, x10, x9 adds x13, x13, x14 adc x14, x10, xzr and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3) and x8, x13, #-4 extr x13, x14, x13, #2 adds x8, x8, x11 lsr x11, x14, #2 adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits adds x8, x8, x13 adcs x9, x9, x12 adc x10, x10, xzr // At this point acc2 has the value of 4 at most // Final reduction step sub x12, xzr, x15 orr x13, xzr, #3 subs x11, x8, #-5 sbcs x12, x9, x12 sbcs x13, x10, x13 csel x8, x11, x8, cs csel x9, x12, x9, cs csel x10, x13, x10, cs mov x11, v27.d[0] mov x12, v27.d[1] adds x8, x8, x11 adcs x9, x9, x12 adc x10, x10, x15 stp x8, x9, [x5] ldp d8, d9, [sp, #16] ldp d10, d11, [sp, #32] ldp d12, d13, [sp, #48] ldp d14, d15, [sp, #64] .cfi_restore b15 .cfi_restore b14 .cfi_restore b13 .cfi_restore b12 .cfi_restore b11 .cfi_restore b10 .cfi_restore b9 .cfi_restore b8 ldp x29, x30, [sp], 80 .cfi_restore w29 .cfi_restore w30 .cfi_def_cfa_offset 0 AARCH64_VALIDATE_LINK_REGISTER ret Lseal_128: // On some architectures preparing 5 blocks for small buffers is wasteful eor v25.16b, v25.16b, v25.16b mov x11, #1 mov v25.s[0], w11 mov v0.16b, v24.16b mov v1.16b, v24.16b mov v2.16b, v24.16b mov v5.16b, v28.16b mov v6.16b, v28.16b mov v7.16b, v28.16b mov v10.16b, v29.16b mov v11.16b, v29.16b mov v12.16b, v29.16b mov v17.16b, v30.16b add v15.4s, v17.4s, v25.4s add v16.4s, v15.4s, v25.4s mov x6, #10 Lseal_128_rounds: add v0.4s, v0.4s, v5.4s add v1.4s, v1.4s, v6.4s add v2.4s, v2.4s, v7.4s eor v15.16b, v15.16b, v0.16b eor v16.16b, v16.16b, v1.16b eor v17.16b, v17.16b, v2.16b rev32 v15.8h, v15.8h rev32 v16.8h, v16.8h rev32 v17.8h, v17.8h add v10.4s, v10.4s, v15.4s add v11.4s, v11.4s, v16.4s add v12.4s, v12.4s, v17.4s eor v5.16b, v5.16b, v10.16b eor v6.16b, v6.16b, v11.16b eor v7.16b, v7.16b, v12.16b ushr v20.4s, v5.4s, #20 sli v20.4s, v5.4s, #12 ushr v5.4s, v6.4s, #20 sli v5.4s, v6.4s, #12 ushr v6.4s, v7.4s, #20 sli v6.4s, v7.4s, #12 add v0.4s, v0.4s, v20.4s add v1.4s, v1.4s, v5.4s add v2.4s, v2.4s, v6.4s eor v15.16b, v15.16b, v0.16b eor v16.16b, v16.16b, v1.16b eor v17.16b, v17.16b, v2.16b tbl v15.16b, {v15.16b}, v26.16b tbl v16.16b, {v16.16b}, v26.16b tbl v17.16b, {v17.16b}, v26.16b add v10.4s, v10.4s, v15.4s add v11.4s, v11.4s, v16.4s add v12.4s, v12.4s, v17.4s eor v20.16b, v20.16b, v10.16b eor v5.16b, v5.16b, v11.16b eor v6.16b, v6.16b, v12.16b ushr v7.4s, v6.4s, #25 sli v7.4s, v6.4s, #7 ushr v6.4s, v5.4s, #25 sli v6.4s, v5.4s, #7 ushr v5.4s, v20.4s, #25 sli v5.4s, v20.4s, #7 ext v5.16b, v5.16b, v5.16b, #4 ext v6.16b, v6.16b, v6.16b, #4 ext v7.16b, v7.16b, v7.16b, #4 ext v10.16b, v10.16b, v10.16b, #8 ext v11.16b, v11.16b, v11.16b, #8 ext v12.16b, v12.16b, v12.16b, #8 ext v15.16b, v15.16b, v15.16b, #12 ext v16.16b, v16.16b, v16.16b, #12 ext v17.16b, v17.16b, v17.16b, #12 add v0.4s, v0.4s, v5.4s add v1.4s, v1.4s, v6.4s add v2.4s, v2.4s, v7.4s eor v15.16b, v15.16b, v0.16b eor v16.16b, v16.16b, v1.16b eor v17.16b, v17.16b, v2.16b rev32 v15.8h, v15.8h rev32 v16.8h, v16.8h rev32 v17.8h, v17.8h add v10.4s, v10.4s, v15.4s add v11.4s, v11.4s, v16.4s add v12.4s, v12.4s, v17.4s eor v5.16b, v5.16b, v10.16b eor v6.16b, v6.16b, v11.16b eor v7.16b, v7.16b, v12.16b ushr v20.4s, v5.4s, #20 sli v20.4s, v5.4s, #12 ushr v5.4s, v6.4s, #20 sli v5.4s, v6.4s, #12 ushr v6.4s, v7.4s, #20 sli v6.4s, v7.4s, #12 add v0.4s, v0.4s, v20.4s add v1.4s, v1.4s, v5.4s add v2.4s, v2.4s, v6.4s eor v15.16b, v15.16b, v0.16b eor v16.16b, v16.16b, v1.16b eor v17.16b, v17.16b, v2.16b tbl v15.16b, {v15.16b}, v26.16b tbl v16.16b, {v16.16b}, v26.16b tbl v17.16b, {v17.16b}, v26.16b add v10.4s, v10.4s, v15.4s add v11.4s, v11.4s, v16.4s add v12.4s, v12.4s, v17.4s eor v20.16b, v20.16b, v10.16b eor v5.16b, v5.16b, v11.16b eor v6.16b, v6.16b, v12.16b ushr v7.4s, v6.4s, #25 sli v7.4s, v6.4s, #7 ushr v6.4s, v5.4s, #25 sli v6.4s, v5.4s, #7 ushr v5.4s, v20.4s, #25 sli v5.4s, v20.4s, #7 ext v5.16b, v5.16b, v5.16b, #12 ext v6.16b, v6.16b, v6.16b, #12 ext v7.16b, v7.16b, v7.16b, #12 ext v10.16b, v10.16b, v10.16b, #8 ext v11.16b, v11.16b, v11.16b, #8 ext v12.16b, v12.16b, v12.16b, #8 ext v15.16b, v15.16b, v15.16b, #4 ext v16.16b, v16.16b, v16.16b, #4 ext v17.16b, v17.16b, v17.16b, #4 subs x6, x6, #1 b.hi Lseal_128_rounds add v0.4s, v0.4s, v24.4s add v1.4s, v1.4s, v24.4s add v2.4s, v2.4s, v24.4s add v5.4s, v5.4s, v28.4s add v6.4s, v6.4s, v28.4s add v7.4s, v7.4s, v28.4s // Only the first 32 bytes of the third block (counter = 0) are needed, // so skip updating v12 and v17. add v10.4s, v10.4s, v29.4s add v11.4s, v11.4s, v29.4s add v30.4s, v30.4s, v25.4s add v15.4s, v15.4s, v30.4s add v30.4s, v30.4s, v25.4s add v16.4s, v16.4s, v30.4s and v2.16b, v2.16b, v27.16b mov x16, v2.d[0] // Move the R key to GPRs mov x17, v2.d[1] mov v27.16b, v7.16b // Store the S key bl Lpoly_hash_ad_internal b Lseal_tail .cfi_endproc ///////////////////////////////// // // void chacha20_poly1305_open(uint8_t *pt, uint8_t *ct, size_t len_in, uint8_t *ad, size_t len_ad, union open_data *aead_data); // .globl chacha20_poly1305_open .def chacha20_poly1305_open .type 32 .endef .align 6 chacha20_poly1305_open: AARCH64_SIGN_LINK_REGISTER .cfi_startproc stp x29, x30, [sp, #-80]! .cfi_def_cfa_offset 80 .cfi_offset w30, -72 .cfi_offset w29, -80 mov x29, sp // We probably could do .cfi_def_cfa w29, 80 at this point, but since // we don't actually use the frame pointer like that, it's probably not // worth bothering. stp d8, d9, [sp, #16] stp d10, d11, [sp, #32] stp d12, d13, [sp, #48] stp d14, d15, [sp, #64] .cfi_offset b15, -8 .cfi_offset b14, -16 .cfi_offset b13, -24 .cfi_offset b12, -32 .cfi_offset b11, -40 .cfi_offset b10, -48 .cfi_offset b9, -56 .cfi_offset b8, -64 adrp x11, Lchacha20_consts add x11, x11, :lo12:Lchacha20_consts ld1 {v24.16b - v27.16b}, [x11] // Load the CONSTS, INC, ROL8 and CLAMP values ld1 {v28.16b - v30.16b}, [x5] mov x15, #1 // Prepare the Poly1305 state mov x8, #0 mov x9, #0 mov x10, #0 mov v31.d[0], x4 // Store the input and aad lengths mov v31.d[1], x2 cmp x2, #128 b.le Lopen_128 // Optimization for smaller buffers // Initially we prepare a single ChaCha20 block for the Poly1305 R and S keys mov v0.16b, v24.16b mov v5.16b, v28.16b mov v10.16b, v29.16b mov v15.16b, v30.16b mov x6, #10 .align 5 Lopen_init_rounds: add v0.4s, v0.4s, v5.4s eor v15.16b, v15.16b, v0.16b rev32 v15.8h, v15.8h add v10.4s, v10.4s, v15.4s eor v5.16b, v5.16b, v10.16b ushr v20.4s, v5.4s, #20 sli v20.4s, v5.4s, #12 add v0.4s, v0.4s, v20.4s eor v15.16b, v15.16b, v0.16b tbl v15.16b, {v15.16b}, v26.16b add v10.4s, v10.4s, v15.4s eor v20.16b, v20.16b, v10.16b ushr v5.4s, v20.4s, #25 sli v5.4s, v20.4s, #7 ext v5.16b, v5.16b, v5.16b, #4 ext v10.16b, v10.16b, v10.16b, #8 ext v15.16b, v15.16b, v15.16b, #12 add v0.4s, v0.4s, v5.4s eor v15.16b, v15.16b, v0.16b rev32 v15.8h, v15.8h add v10.4s, v10.4s, v15.4s eor v5.16b, v5.16b, v10.16b ushr v20.4s, v5.4s, #20 sli v20.4s, v5.4s, #12 add v0.4s, v0.4s, v20.4s eor v15.16b, v15.16b, v0.16b tbl v15.16b, {v15.16b}, v26.16b add v10.4s, v10.4s, v15.4s eor v20.16b, v20.16b, v10.16b ushr v5.4s, v20.4s, #25 sli v5.4s, v20.4s, #7 ext v5.16b, v5.16b, v5.16b, #12 ext v10.16b, v10.16b, v10.16b, #8 ext v15.16b, v15.16b, v15.16b, #4 subs x6, x6, #1 b.hi Lopen_init_rounds add v0.4s, v0.4s, v24.4s add v5.4s, v5.4s, v28.4s and v0.16b, v0.16b, v27.16b mov x16, v0.d[0] // Move the R key to GPRs mov x17, v0.d[1] mov v27.16b, v5.16b // Store the S key bl Lpoly_hash_ad_internal Lopen_ad_done: mov x3, x1 // Each iteration of the loop hash 320 bytes, and prepare stream for 320 bytes Lopen_main_loop: cmp x2, #192 b.lt Lopen_tail adrp x11, Lchacha20_consts add x11, x11, :lo12:Lchacha20_consts ld4r {v0.4s,v1.4s,v2.4s,v3.4s}, [x11] mov v4.16b, v24.16b ld4r {v5.4s,v6.4s,v7.4s,v8.4s}, [x5], #16 mov v9.16b, v28.16b ld4r {v10.4s,v11.4s,v12.4s,v13.4s}, [x5], #16 mov v14.16b, v29.16b ld4r {v15.4s,v16.4s,v17.4s,v18.4s}, [x5] sub x5, x5, #32 add v15.4s, v15.4s, v25.4s mov v19.16b, v30.16b eor v20.16b, v20.16b, v20.16b //zero not v21.16b, v20.16b // -1 sub v21.4s, v25.4s, v21.4s // Add +1 ext v20.16b, v21.16b, v20.16b, #12 // Get the last element (counter) add v19.4s, v19.4s, v20.4s lsr x4, x2, #4 // How many whole blocks we have to hash, will always be at least 12 sub x4, x4, #10 mov x7, #10 subs x6, x7, x4 subs x6, x7, x4 // itr1 can be negative if we have more than 320 bytes to hash csel x7, x7, x4, le // if itr1 is zero or less, itr2 should be 10 to indicate all 10 rounds are full cbz x7, Lopen_main_loop_rounds_short .align 5 Lopen_main_loop_rounds: ldp x11, x12, [x3], 16 adds x8, x8, x11 adcs x9, x9, x12 adc x10, x10, x15 mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0 umulh x12, x8, x16 mul x13, x9, x16 umulh x14, x9, x16 adds x12, x12, x13 mul x13, x10, x16 adc x13, x13, x14 mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0] umulh x8, x8, x17 adds x12, x12, x14 mul x14, x9, x17 umulh x9, x9, x17 adcs x14, x14, x8 mul x10, x10, x17 adc x10, x10, x9 adds x13, x13, x14 adc x14, x10, xzr and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3) and x8, x13, #-4 extr x13, x14, x13, #2 adds x8, x8, x11 lsr x11, x14, #2 adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits adds x8, x8, x13 adcs x9, x9, x12 adc x10, x10, xzr // At this point acc2 has the value of 4 at most Lopen_main_loop_rounds_short: add v0.4s, v0.4s, v5.4s add v1.4s, v1.4s, v6.4s add v2.4s, v2.4s, v7.4s add v3.4s, v3.4s, v8.4s add v4.4s, v4.4s, v9.4s eor v15.16b, v15.16b, v0.16b eor v16.16b, v16.16b, v1.16b eor v17.16b, v17.16b, v2.16b eor v18.16b, v18.16b, v3.16b eor v19.16b, v19.16b, v4.16b rev32 v15.8h, v15.8h rev32 v16.8h, v16.8h rev32 v17.8h, v17.8h rev32 v18.8h, v18.8h rev32 v19.8h, v19.8h add v10.4s, v10.4s, v15.4s add v11.4s, v11.4s, v16.4s add v12.4s, v12.4s, v17.4s add v13.4s, v13.4s, v18.4s add v14.4s, v14.4s, v19.4s eor v5.16b, v5.16b, v10.16b eor v6.16b, v6.16b, v11.16b eor v7.16b, v7.16b, v12.16b eor v8.16b, v8.16b, v13.16b eor v9.16b, v9.16b, v14.16b ushr v20.4s, v5.4s, #20 sli v20.4s, v5.4s, #12 ushr v5.4s, v6.4s, #20 sli v5.4s, v6.4s, #12 ushr v6.4s, v7.4s, #20 sli v6.4s, v7.4s, #12 ushr v7.4s, v8.4s, #20 sli v7.4s, v8.4s, #12 ushr v8.4s, v9.4s, #20 sli v8.4s, v9.4s, #12 add v0.4s, v0.4s, v20.4s add v1.4s, v1.4s, v5.4s add v2.4s, v2.4s, v6.4s add v3.4s, v3.4s, v7.4s add v4.4s, v4.4s, v8.4s eor v15.16b, v15.16b, v0.16b eor v16.16b, v16.16b, v1.16b eor v17.16b, v17.16b, v2.16b eor v18.16b, v18.16b, v3.16b eor v19.16b, v19.16b, v4.16b tbl v15.16b, {v15.16b}, v26.16b tbl v16.16b, {v16.16b}, v26.16b tbl v17.16b, {v17.16b}, v26.16b tbl v18.16b, {v18.16b}, v26.16b tbl v19.16b, {v19.16b}, v26.16b add v10.4s, v10.4s, v15.4s add v11.4s, v11.4s, v16.4s add v12.4s, v12.4s, v17.4s add v13.4s, v13.4s, v18.4s add v14.4s, v14.4s, v19.4s eor v20.16b, v20.16b, v10.16b eor v5.16b, v5.16b, v11.16b eor v6.16b, v6.16b, v12.16b eor v7.16b, v7.16b, v13.16b eor v8.16b, v8.16b, v14.16b ushr v9.4s, v8.4s, #25 sli v9.4s, v8.4s, #7 ushr v8.4s, v7.4s, #25 sli v8.4s, v7.4s, #7 ushr v7.4s, v6.4s, #25 sli v7.4s, v6.4s, #7 ushr v6.4s, v5.4s, #25 sli v6.4s, v5.4s, #7 ushr v5.4s, v20.4s, #25 sli v5.4s, v20.4s, #7 ext v9.16b, v9.16b, v9.16b, #4 ext v14.16b, v14.16b, v14.16b, #8 ext v19.16b, v19.16b, v19.16b, #12 ldp x11, x12, [x3], 16 adds x8, x8, x11 adcs x9, x9, x12 adc x10, x10, x15 mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0 umulh x12, x8, x16 mul x13, x9, x16 umulh x14, x9, x16 adds x12, x12, x13 mul x13, x10, x16 adc x13, x13, x14 mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0] umulh x8, x8, x17 adds x12, x12, x14 mul x14, x9, x17 umulh x9, x9, x17 adcs x14, x14, x8 mul x10, x10, x17 adc x10, x10, x9 adds x13, x13, x14 adc x14, x10, xzr and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3) and x8, x13, #-4 extr x13, x14, x13, #2 adds x8, x8, x11 lsr x11, x14, #2 adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits adds x8, x8, x13 adcs x9, x9, x12 adc x10, x10, xzr // At this point acc2 has the value of 4 at most add v0.4s, v0.4s, v6.4s add v1.4s, v1.4s, v7.4s add v2.4s, v2.4s, v8.4s add v3.4s, v3.4s, v5.4s add v4.4s, v4.4s, v9.4s eor v18.16b, v18.16b, v0.16b eor v15.16b, v15.16b, v1.16b eor v16.16b, v16.16b, v2.16b eor v17.16b, v17.16b, v3.16b eor v19.16b, v19.16b, v4.16b rev32 v18.8h, v18.8h rev32 v15.8h, v15.8h rev32 v16.8h, v16.8h rev32 v17.8h, v17.8h rev32 v19.8h, v19.8h add v12.4s, v12.4s, v18.4s add v13.4s, v13.4s, v15.4s add v10.4s, v10.4s, v16.4s add v11.4s, v11.4s, v17.4s add v14.4s, v14.4s, v19.4s eor v6.16b, v6.16b, v12.16b eor v7.16b, v7.16b, v13.16b eor v8.16b, v8.16b, v10.16b eor v5.16b, v5.16b, v11.16b eor v9.16b, v9.16b, v14.16b ushr v20.4s, v6.4s, #20 sli v20.4s, v6.4s, #12 ushr v6.4s, v7.4s, #20 sli v6.4s, v7.4s, #12 ushr v7.4s, v8.4s, #20 sli v7.4s, v8.4s, #12 ushr v8.4s, v5.4s, #20 sli v8.4s, v5.4s, #12 ushr v5.4s, v9.4s, #20 sli v5.4s, v9.4s, #12 add v0.4s, v0.4s, v20.4s add v1.4s, v1.4s, v6.4s add v2.4s, v2.4s, v7.4s add v3.4s, v3.4s, v8.4s add v4.4s, v4.4s, v5.4s eor v18.16b, v18.16b, v0.16b eor v15.16b, v15.16b, v1.16b eor v16.16b, v16.16b, v2.16b eor v17.16b, v17.16b, v3.16b eor v19.16b, v19.16b, v4.16b tbl v18.16b, {v18.16b}, v26.16b tbl v15.16b, {v15.16b}, v26.16b tbl v16.16b, {v16.16b}, v26.16b tbl v17.16b, {v17.16b}, v26.16b tbl v19.16b, {v19.16b}, v26.16b add v12.4s, v12.4s, v18.4s add v13.4s, v13.4s, v15.4s add v10.4s, v10.4s, v16.4s add v11.4s, v11.4s, v17.4s add v14.4s, v14.4s, v19.4s eor v20.16b, v20.16b, v12.16b eor v6.16b, v6.16b, v13.16b eor v7.16b, v7.16b, v10.16b eor v8.16b, v8.16b, v11.16b eor v5.16b, v5.16b, v14.16b ushr v9.4s, v5.4s, #25 sli v9.4s, v5.4s, #7 ushr v5.4s, v8.4s, #25 sli v5.4s, v8.4s, #7 ushr v8.4s, v7.4s, #25 sli v8.4s, v7.4s, #7 ushr v7.4s, v6.4s, #25 sli v7.4s, v6.4s, #7 ushr v6.4s, v20.4s, #25 sli v6.4s, v20.4s, #7 ext v9.16b, v9.16b, v9.16b, #12 ext v14.16b, v14.16b, v14.16b, #8 ext v19.16b, v19.16b, v19.16b, #4 subs x7, x7, #1 b.gt Lopen_main_loop_rounds subs x6, x6, #1 b.ge Lopen_main_loop_rounds_short eor v20.16b, v20.16b, v20.16b //zero not v21.16b, v20.16b // -1 sub v21.4s, v25.4s, v21.4s // Add +1 ext v20.16b, v21.16b, v20.16b, #12 // Get the last element (counter) add v19.4s, v19.4s, v20.4s add v15.4s, v15.4s, v25.4s mov x11, #5 dup v20.4s, w11 add v25.4s, v25.4s, v20.4s zip1 v20.4s, v0.4s, v1.4s zip2 v21.4s, v0.4s, v1.4s zip1 v22.4s, v2.4s, v3.4s zip2 v23.4s, v2.4s, v3.4s zip1 v0.2d, v20.2d, v22.2d zip2 v1.2d, v20.2d, v22.2d zip1 v2.2d, v21.2d, v23.2d zip2 v3.2d, v21.2d, v23.2d zip1 v20.4s, v5.4s, v6.4s zip2 v21.4s, v5.4s, v6.4s zip1 v22.4s, v7.4s, v8.4s zip2 v23.4s, v7.4s, v8.4s zip1 v5.2d, v20.2d, v22.2d zip2 v6.2d, v20.2d, v22.2d zip1 v7.2d, v21.2d, v23.2d zip2 v8.2d, v21.2d, v23.2d zip1 v20.4s, v10.4s, v11.4s zip2 v21.4s, v10.4s, v11.4s zip1 v22.4s, v12.4s, v13.4s zip2 v23.4s, v12.4s, v13.4s zip1 v10.2d, v20.2d, v22.2d zip2 v11.2d, v20.2d, v22.2d zip1 v12.2d, v21.2d, v23.2d zip2 v13.2d, v21.2d, v23.2d zip1 v20.4s, v15.4s, v16.4s zip2 v21.4s, v15.4s, v16.4s zip1 v22.4s, v17.4s, v18.4s zip2 v23.4s, v17.4s, v18.4s zip1 v15.2d, v20.2d, v22.2d zip2 v16.2d, v20.2d, v22.2d zip1 v17.2d, v21.2d, v23.2d zip2 v18.2d, v21.2d, v23.2d add v0.4s, v0.4s, v24.4s add v5.4s, v5.4s, v28.4s add v10.4s, v10.4s, v29.4s add v15.4s, v15.4s, v30.4s add v1.4s, v1.4s, v24.4s add v6.4s, v6.4s, v28.4s add v11.4s, v11.4s, v29.4s add v16.4s, v16.4s, v30.4s add v2.4s, v2.4s, v24.4s add v7.4s, v7.4s, v28.4s add v12.4s, v12.4s, v29.4s add v17.4s, v17.4s, v30.4s add v3.4s, v3.4s, v24.4s add v8.4s, v8.4s, v28.4s add v13.4s, v13.4s, v29.4s add v18.4s, v18.4s, v30.4s add v4.4s, v4.4s, v24.4s add v9.4s, v9.4s, v28.4s add v14.4s, v14.4s, v29.4s add v19.4s, v19.4s, v30.4s // We can always safely store 192 bytes ld1 {v20.16b - v23.16b}, [x1], #64 eor v20.16b, v20.16b, v0.16b eor v21.16b, v21.16b, v5.16b eor v22.16b, v22.16b, v10.16b eor v23.16b, v23.16b, v15.16b st1 {v20.16b - v23.16b}, [x0], #64 ld1 {v20.16b - v23.16b}, [x1], #64 eor v20.16b, v20.16b, v1.16b eor v21.16b, v21.16b, v6.16b eor v22.16b, v22.16b, v11.16b eor v23.16b, v23.16b, v16.16b st1 {v20.16b - v23.16b}, [x0], #64 ld1 {v20.16b - v23.16b}, [x1], #64 eor v20.16b, v20.16b, v2.16b eor v21.16b, v21.16b, v7.16b eor v22.16b, v22.16b, v12.16b eor v23.16b, v23.16b, v17.16b st1 {v20.16b - v23.16b}, [x0], #64 sub x2, x2, #192 mov v0.16b, v3.16b mov v5.16b, v8.16b mov v10.16b, v13.16b mov v15.16b, v18.16b cmp x2, #64 b.lt Lopen_tail_64_store ld1 {v20.16b - v23.16b}, [x1], #64 eor v20.16b, v20.16b, v3.16b eor v21.16b, v21.16b, v8.16b eor v22.16b, v22.16b, v13.16b eor v23.16b, v23.16b, v18.16b st1 {v20.16b - v23.16b}, [x0], #64 sub x2, x2, #64 mov v0.16b, v4.16b mov v5.16b, v9.16b mov v10.16b, v14.16b mov v15.16b, v19.16b cmp x2, #64 b.lt Lopen_tail_64_store ld1 {v20.16b - v23.16b}, [x1], #64 eor v20.16b, v20.16b, v4.16b eor v21.16b, v21.16b, v9.16b eor v22.16b, v22.16b, v14.16b eor v23.16b, v23.16b, v19.16b st1 {v20.16b - v23.16b}, [x0], #64 sub x2, x2, #64 b Lopen_main_loop Lopen_tail: cbz x2, Lopen_finalize lsr x4, x2, #4 // How many whole blocks we have to hash cmp x2, #64 b.le Lopen_tail_64 cmp x2, #128 b.le Lopen_tail_128 Lopen_tail_192: // We need three more blocks mov v0.16b, v24.16b mov v1.16b, v24.16b mov v2.16b, v24.16b mov v5.16b, v28.16b mov v6.16b, v28.16b mov v7.16b, v28.16b mov v10.16b, v29.16b mov v11.16b, v29.16b mov v12.16b, v29.16b mov v15.16b, v30.16b mov v16.16b, v30.16b mov v17.16b, v30.16b eor v23.16b, v23.16b, v23.16b eor v21.16b, v21.16b, v21.16b ins v23.s[0], v25.s[0] ins v21.d[0], x15 add v22.4s, v23.4s, v21.4s add v21.4s, v22.4s, v21.4s add v15.4s, v15.4s, v21.4s add v16.4s, v16.4s, v23.4s add v17.4s, v17.4s, v22.4s mov x7, #10 subs x6, x7, x4 // itr1 can be negative if we have more than 160 bytes to hash csel x7, x7, x4, le // if itr1 is zero or less, itr2 should be 10 to indicate all 10 rounds are hashing sub x4, x4, x7 cbz x7, Lopen_tail_192_rounds_no_hash Lopen_tail_192_rounds: ldp x11, x12, [x3], 16 adds x8, x8, x11 adcs x9, x9, x12 adc x10, x10, x15 mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0 umulh x12, x8, x16 mul x13, x9, x16 umulh x14, x9, x16 adds x12, x12, x13 mul x13, x10, x16 adc x13, x13, x14 mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0] umulh x8, x8, x17 adds x12, x12, x14 mul x14, x9, x17 umulh x9, x9, x17 adcs x14, x14, x8 mul x10, x10, x17 adc x10, x10, x9 adds x13, x13, x14 adc x14, x10, xzr and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3) and x8, x13, #-4 extr x13, x14, x13, #2 adds x8, x8, x11 lsr x11, x14, #2 adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits adds x8, x8, x13 adcs x9, x9, x12 adc x10, x10, xzr // At this point acc2 has the value of 4 at most Lopen_tail_192_rounds_no_hash: add v0.4s, v0.4s, v5.4s add v1.4s, v1.4s, v6.4s add v2.4s, v2.4s, v7.4s eor v15.16b, v15.16b, v0.16b eor v16.16b, v16.16b, v1.16b eor v17.16b, v17.16b, v2.16b rev32 v15.8h, v15.8h rev32 v16.8h, v16.8h rev32 v17.8h, v17.8h add v10.4s, v10.4s, v15.4s add v11.4s, v11.4s, v16.4s add v12.4s, v12.4s, v17.4s eor v5.16b, v5.16b, v10.16b eor v6.16b, v6.16b, v11.16b eor v7.16b, v7.16b, v12.16b ushr v20.4s, v5.4s, #20 sli v20.4s, v5.4s, #12 ushr v5.4s, v6.4s, #20 sli v5.4s, v6.4s, #12 ushr v6.4s, v7.4s, #20 sli v6.4s, v7.4s, #12 add v0.4s, v0.4s, v20.4s add v1.4s, v1.4s, v5.4s add v2.4s, v2.4s, v6.4s eor v15.16b, v15.16b, v0.16b eor v16.16b, v16.16b, v1.16b eor v17.16b, v17.16b, v2.16b tbl v15.16b, {v15.16b}, v26.16b tbl v16.16b, {v16.16b}, v26.16b tbl v17.16b, {v17.16b}, v26.16b add v10.4s, v10.4s, v15.4s add v11.4s, v11.4s, v16.4s add v12.4s, v12.4s, v17.4s eor v20.16b, v20.16b, v10.16b eor v5.16b, v5.16b, v11.16b eor v6.16b, v6.16b, v12.16b ushr v7.4s, v6.4s, #25 sli v7.4s, v6.4s, #7 ushr v6.4s, v5.4s, #25 sli v6.4s, v5.4s, #7 ushr v5.4s, v20.4s, #25 sli v5.4s, v20.4s, #7 ext v5.16b, v5.16b, v5.16b, #4 ext v6.16b, v6.16b, v6.16b, #4 ext v7.16b, v7.16b, v7.16b, #4 ext v10.16b, v10.16b, v10.16b, #8 ext v11.16b, v11.16b, v11.16b, #8 ext v12.16b, v12.16b, v12.16b, #8 ext v15.16b, v15.16b, v15.16b, #12 ext v16.16b, v16.16b, v16.16b, #12 ext v17.16b, v17.16b, v17.16b, #12 add v0.4s, v0.4s, v5.4s add v1.4s, v1.4s, v6.4s add v2.4s, v2.4s, v7.4s eor v15.16b, v15.16b, v0.16b eor v16.16b, v16.16b, v1.16b eor v17.16b, v17.16b, v2.16b rev32 v15.8h, v15.8h rev32 v16.8h, v16.8h rev32 v17.8h, v17.8h add v10.4s, v10.4s, v15.4s add v11.4s, v11.4s, v16.4s add v12.4s, v12.4s, v17.4s eor v5.16b, v5.16b, v10.16b eor v6.16b, v6.16b, v11.16b eor v7.16b, v7.16b, v12.16b ushr v20.4s, v5.4s, #20 sli v20.4s, v5.4s, #12 ushr v5.4s, v6.4s, #20 sli v5.4s, v6.4s, #12 ushr v6.4s, v7.4s, #20 sli v6.4s, v7.4s, #12 add v0.4s, v0.4s, v20.4s add v1.4s, v1.4s, v5.4s add v2.4s, v2.4s, v6.4s eor v15.16b, v15.16b, v0.16b eor v16.16b, v16.16b, v1.16b eor v17.16b, v17.16b, v2.16b tbl v15.16b, {v15.16b}, v26.16b tbl v16.16b, {v16.16b}, v26.16b tbl v17.16b, {v17.16b}, v26.16b add v10.4s, v10.4s, v15.4s add v11.4s, v11.4s, v16.4s add v12.4s, v12.4s, v17.4s eor v20.16b, v20.16b, v10.16b eor v5.16b, v5.16b, v11.16b eor v6.16b, v6.16b, v12.16b ushr v7.4s, v6.4s, #25 sli v7.4s, v6.4s, #7 ushr v6.4s, v5.4s, #25 sli v6.4s, v5.4s, #7 ushr v5.4s, v20.4s, #25 sli v5.4s, v20.4s, #7 ext v5.16b, v5.16b, v5.16b, #12 ext v6.16b, v6.16b, v6.16b, #12 ext v7.16b, v7.16b, v7.16b, #12 ext v10.16b, v10.16b, v10.16b, #8 ext v11.16b, v11.16b, v11.16b, #8 ext v12.16b, v12.16b, v12.16b, #8 ext v15.16b, v15.16b, v15.16b, #4 ext v16.16b, v16.16b, v16.16b, #4 ext v17.16b, v17.16b, v17.16b, #4 subs x7, x7, #1 b.gt Lopen_tail_192_rounds subs x6, x6, #1 b.ge Lopen_tail_192_rounds_no_hash // We hashed 160 bytes at most, may still have 32 bytes left Lopen_tail_192_hash: cbz x4, Lopen_tail_192_hash_done ldp x11, x12, [x3], 16 adds x8, x8, x11 adcs x9, x9, x12 adc x10, x10, x15 mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0 umulh x12, x8, x16 mul x13, x9, x16 umulh x14, x9, x16 adds x12, x12, x13 mul x13, x10, x16 adc x13, x13, x14 mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0] umulh x8, x8, x17 adds x12, x12, x14 mul x14, x9, x17 umulh x9, x9, x17 adcs x14, x14, x8 mul x10, x10, x17 adc x10, x10, x9 adds x13, x13, x14 adc x14, x10, xzr and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3) and x8, x13, #-4 extr x13, x14, x13, #2 adds x8, x8, x11 lsr x11, x14, #2 adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits adds x8, x8, x13 adcs x9, x9, x12 adc x10, x10, xzr // At this point acc2 has the value of 4 at most sub x4, x4, #1 b Lopen_tail_192_hash Lopen_tail_192_hash_done: add v0.4s, v0.4s, v24.4s add v1.4s, v1.4s, v24.4s add v2.4s, v2.4s, v24.4s add v5.4s, v5.4s, v28.4s add v6.4s, v6.4s, v28.4s add v7.4s, v7.4s, v28.4s add v10.4s, v10.4s, v29.4s add v11.4s, v11.4s, v29.4s add v12.4s, v12.4s, v29.4s add v15.4s, v15.4s, v30.4s add v16.4s, v16.4s, v30.4s add v17.4s, v17.4s, v30.4s add v15.4s, v15.4s, v21.4s add v16.4s, v16.4s, v23.4s add v17.4s, v17.4s, v22.4s ld1 {v20.16b - v23.16b}, [x1], #64 eor v20.16b, v20.16b, v1.16b eor v21.16b, v21.16b, v6.16b eor v22.16b, v22.16b, v11.16b eor v23.16b, v23.16b, v16.16b st1 {v20.16b - v23.16b}, [x0], #64 ld1 {v20.16b - v23.16b}, [x1], #64 eor v20.16b, v20.16b, v2.16b eor v21.16b, v21.16b, v7.16b eor v22.16b, v22.16b, v12.16b eor v23.16b, v23.16b, v17.16b st1 {v20.16b - v23.16b}, [x0], #64 sub x2, x2, #128 b Lopen_tail_64_store Lopen_tail_128: // We need two more blocks mov v0.16b, v24.16b mov v1.16b, v24.16b mov v5.16b, v28.16b mov v6.16b, v28.16b mov v10.16b, v29.16b mov v11.16b, v29.16b mov v15.16b, v30.16b mov v16.16b, v30.16b eor v23.16b, v23.16b, v23.16b eor v22.16b, v22.16b, v22.16b ins v23.s[0], v25.s[0] ins v22.d[0], x15 add v22.4s, v22.4s, v23.4s add v15.4s, v15.4s, v22.4s add v16.4s, v16.4s, v23.4s mov x6, #10 sub x6, x6, x4 Lopen_tail_128_rounds: add v0.4s, v0.4s, v5.4s eor v15.16b, v15.16b, v0.16b rev32 v15.8h, v15.8h add v10.4s, v10.4s, v15.4s eor v5.16b, v5.16b, v10.16b ushr v20.4s, v5.4s, #20 sli v20.4s, v5.4s, #12 add v0.4s, v0.4s, v20.4s eor v15.16b, v15.16b, v0.16b tbl v15.16b, {v15.16b}, v26.16b add v10.4s, v10.4s, v15.4s eor v20.16b, v20.16b, v10.16b ushr v5.4s, v20.4s, #25 sli v5.4s, v20.4s, #7 ext v5.16b, v5.16b, v5.16b, #4 ext v10.16b, v10.16b, v10.16b, #8 ext v15.16b, v15.16b, v15.16b, #12 add v1.4s, v1.4s, v6.4s eor v16.16b, v16.16b, v1.16b rev32 v16.8h, v16.8h add v11.4s, v11.4s, v16.4s eor v6.16b, v6.16b, v11.16b ushr v20.4s, v6.4s, #20 sli v20.4s, v6.4s, #12 add v1.4s, v1.4s, v20.4s eor v16.16b, v16.16b, v1.16b tbl v16.16b, {v16.16b}, v26.16b add v11.4s, v11.4s, v16.4s eor v20.16b, v20.16b, v11.16b ushr v6.4s, v20.4s, #25 sli v6.4s, v20.4s, #7 ext v6.16b, v6.16b, v6.16b, #4 ext v11.16b, v11.16b, v11.16b, #8 ext v16.16b, v16.16b, v16.16b, #12 add v0.4s, v0.4s, v5.4s eor v15.16b, v15.16b, v0.16b rev32 v15.8h, v15.8h add v10.4s, v10.4s, v15.4s eor v5.16b, v5.16b, v10.16b ushr v20.4s, v5.4s, #20 sli v20.4s, v5.4s, #12 add v0.4s, v0.4s, v20.4s eor v15.16b, v15.16b, v0.16b tbl v15.16b, {v15.16b}, v26.16b add v10.4s, v10.4s, v15.4s eor v20.16b, v20.16b, v10.16b ushr v5.4s, v20.4s, #25 sli v5.4s, v20.4s, #7 ext v5.16b, v5.16b, v5.16b, #12 ext v10.16b, v10.16b, v10.16b, #8 ext v15.16b, v15.16b, v15.16b, #4 add v1.4s, v1.4s, v6.4s eor v16.16b, v16.16b, v1.16b rev32 v16.8h, v16.8h add v11.4s, v11.4s, v16.4s eor v6.16b, v6.16b, v11.16b ushr v20.4s, v6.4s, #20 sli v20.4s, v6.4s, #12 add v1.4s, v1.4s, v20.4s eor v16.16b, v16.16b, v1.16b tbl v16.16b, {v16.16b}, v26.16b add v11.4s, v11.4s, v16.4s eor v20.16b, v20.16b, v11.16b ushr v6.4s, v20.4s, #25 sli v6.4s, v20.4s, #7 ext v6.16b, v6.16b, v6.16b, #12 ext v11.16b, v11.16b, v11.16b, #8 ext v16.16b, v16.16b, v16.16b, #4 subs x6, x6, #1 b.gt Lopen_tail_128_rounds cbz x4, Lopen_tail_128_rounds_done subs x4, x4, #1 ldp x11, x12, [x3], 16 adds x8, x8, x11 adcs x9, x9, x12 adc x10, x10, x15 mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0 umulh x12, x8, x16 mul x13, x9, x16 umulh x14, x9, x16 adds x12, x12, x13 mul x13, x10, x16 adc x13, x13, x14 mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0] umulh x8, x8, x17 adds x12, x12, x14 mul x14, x9, x17 umulh x9, x9, x17 adcs x14, x14, x8 mul x10, x10, x17 adc x10, x10, x9 adds x13, x13, x14 adc x14, x10, xzr and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3) and x8, x13, #-4 extr x13, x14, x13, #2 adds x8, x8, x11 lsr x11, x14, #2 adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits adds x8, x8, x13 adcs x9, x9, x12 adc x10, x10, xzr // At this point acc2 has the value of 4 at most b Lopen_tail_128_rounds Lopen_tail_128_rounds_done: add v0.4s, v0.4s, v24.4s add v1.4s, v1.4s, v24.4s add v5.4s, v5.4s, v28.4s add v6.4s, v6.4s, v28.4s add v10.4s, v10.4s, v29.4s add v11.4s, v11.4s, v29.4s add v15.4s, v15.4s, v30.4s add v16.4s, v16.4s, v30.4s add v15.4s, v15.4s, v22.4s add v16.4s, v16.4s, v23.4s ld1 {v20.16b - v23.16b}, [x1], #64 eor v20.16b, v20.16b, v1.16b eor v21.16b, v21.16b, v6.16b eor v22.16b, v22.16b, v11.16b eor v23.16b, v23.16b, v16.16b st1 {v20.16b - v23.16b}, [x0], #64 sub x2, x2, #64 b Lopen_tail_64_store Lopen_tail_64: // We just need a single block mov v0.16b, v24.16b mov v5.16b, v28.16b mov v10.16b, v29.16b mov v15.16b, v30.16b eor v23.16b, v23.16b, v23.16b ins v23.s[0], v25.s[0] add v15.4s, v15.4s, v23.4s mov x6, #10 sub x6, x6, x4 Lopen_tail_64_rounds: add v0.4s, v0.4s, v5.4s eor v15.16b, v15.16b, v0.16b rev32 v15.8h, v15.8h add v10.4s, v10.4s, v15.4s eor v5.16b, v5.16b, v10.16b ushr v20.4s, v5.4s, #20 sli v20.4s, v5.4s, #12 add v0.4s, v0.4s, v20.4s eor v15.16b, v15.16b, v0.16b tbl v15.16b, {v15.16b}, v26.16b add v10.4s, v10.4s, v15.4s eor v20.16b, v20.16b, v10.16b ushr v5.4s, v20.4s, #25 sli v5.4s, v20.4s, #7 ext v5.16b, v5.16b, v5.16b, #4 ext v10.16b, v10.16b, v10.16b, #8 ext v15.16b, v15.16b, v15.16b, #12 add v0.4s, v0.4s, v5.4s eor v15.16b, v15.16b, v0.16b rev32 v15.8h, v15.8h add v10.4s, v10.4s, v15.4s eor v5.16b, v5.16b, v10.16b ushr v20.4s, v5.4s, #20 sli v20.4s, v5.4s, #12 add v0.4s, v0.4s, v20.4s eor v15.16b, v15.16b, v0.16b tbl v15.16b, {v15.16b}, v26.16b add v10.4s, v10.4s, v15.4s eor v20.16b, v20.16b, v10.16b ushr v5.4s, v20.4s, #25 sli v5.4s, v20.4s, #7 ext v5.16b, v5.16b, v5.16b, #12 ext v10.16b, v10.16b, v10.16b, #8 ext v15.16b, v15.16b, v15.16b, #4 subs x6, x6, #1 b.gt Lopen_tail_64_rounds cbz x4, Lopen_tail_64_rounds_done subs x4, x4, #1 ldp x11, x12, [x3], 16 adds x8, x8, x11 adcs x9, x9, x12 adc x10, x10, x15 mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0 umulh x12, x8, x16 mul x13, x9, x16 umulh x14, x9, x16 adds x12, x12, x13 mul x13, x10, x16 adc x13, x13, x14 mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0] umulh x8, x8, x17 adds x12, x12, x14 mul x14, x9, x17 umulh x9, x9, x17 adcs x14, x14, x8 mul x10, x10, x17 adc x10, x10, x9 adds x13, x13, x14 adc x14, x10, xzr and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3) and x8, x13, #-4 extr x13, x14, x13, #2 adds x8, x8, x11 lsr x11, x14, #2 adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits adds x8, x8, x13 adcs x9, x9, x12 adc x10, x10, xzr // At this point acc2 has the value of 4 at most b Lopen_tail_64_rounds Lopen_tail_64_rounds_done: add v0.4s, v0.4s, v24.4s add v5.4s, v5.4s, v28.4s add v10.4s, v10.4s, v29.4s add v15.4s, v15.4s, v30.4s add v15.4s, v15.4s, v23.4s Lopen_tail_64_store: cmp x2, #16 b.lt Lopen_tail_16 ld1 {v20.16b}, [x1], #16 eor v20.16b, v20.16b, v0.16b st1 {v20.16b}, [x0], #16 mov v0.16b, v5.16b mov v5.16b, v10.16b mov v10.16b, v15.16b sub x2, x2, #16 b Lopen_tail_64_store Lopen_tail_16: // Here we handle the last [0,16) bytes that require a padded block cbz x2, Lopen_finalize eor v20.16b, v20.16b, v20.16b // Use T0 to load the ciphertext eor v21.16b, v21.16b, v21.16b // Use T1 to generate an AND mask not v22.16b, v20.16b add x7, x1, x2 mov x6, x2 Lopen_tail_16_compose: ext v20.16b, v20.16b, v20.16b, #15 ldrb w11, [x7, #-1]! mov v20.b[0], w11 ext v21.16b, v22.16b, v21.16b, #15 subs x2, x2, #1 b.gt Lopen_tail_16_compose and v20.16b, v20.16b, v21.16b // Hash in the final padded block mov x11, v20.d[0] mov x12, v20.d[1] adds x8, x8, x11 adcs x9, x9, x12 adc x10, x10, x15 mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0 umulh x12, x8, x16 mul x13, x9, x16 umulh x14, x9, x16 adds x12, x12, x13 mul x13, x10, x16 adc x13, x13, x14 mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0] umulh x8, x8, x17 adds x12, x12, x14 mul x14, x9, x17 umulh x9, x9, x17 adcs x14, x14, x8 mul x10, x10, x17 adc x10, x10, x9 adds x13, x13, x14 adc x14, x10, xzr and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3) and x8, x13, #-4 extr x13, x14, x13, #2 adds x8, x8, x11 lsr x11, x14, #2 adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits adds x8, x8, x13 adcs x9, x9, x12 adc x10, x10, xzr // At this point acc2 has the value of 4 at most eor v20.16b, v20.16b, v0.16b Lopen_tail_16_store: umov w11, v20.b[0] strb w11, [x0], #1 ext v20.16b, v20.16b, v20.16b, #1 subs x6, x6, #1 b.gt Lopen_tail_16_store Lopen_finalize: mov x11, v31.d[0] mov x12, v31.d[1] adds x8, x8, x11 adcs x9, x9, x12 adc x10, x10, x15 mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0 umulh x12, x8, x16 mul x13, x9, x16 umulh x14, x9, x16 adds x12, x12, x13 mul x13, x10, x16 adc x13, x13, x14 mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0] umulh x8, x8, x17 adds x12, x12, x14 mul x14, x9, x17 umulh x9, x9, x17 adcs x14, x14, x8 mul x10, x10, x17 adc x10, x10, x9 adds x13, x13, x14 adc x14, x10, xzr and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3) and x8, x13, #-4 extr x13, x14, x13, #2 adds x8, x8, x11 lsr x11, x14, #2 adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits adds x8, x8, x13 adcs x9, x9, x12 adc x10, x10, xzr // At this point acc2 has the value of 4 at most // Final reduction step sub x12, xzr, x15 orr x13, xzr, #3 subs x11, x8, #-5 sbcs x12, x9, x12 sbcs x13, x10, x13 csel x8, x11, x8, cs csel x9, x12, x9, cs csel x10, x13, x10, cs mov x11, v27.d[0] mov x12, v27.d[1] adds x8, x8, x11 adcs x9, x9, x12 adc x10, x10, x15 stp x8, x9, [x5] ldp d8, d9, [sp, #16] ldp d10, d11, [sp, #32] ldp d12, d13, [sp, #48] ldp d14, d15, [sp, #64] .cfi_restore b15 .cfi_restore b14 .cfi_restore b13 .cfi_restore b12 .cfi_restore b11 .cfi_restore b10 .cfi_restore b9 .cfi_restore b8 ldp x29, x30, [sp], 80 .cfi_restore w29 .cfi_restore w30 .cfi_def_cfa_offset 0 AARCH64_VALIDATE_LINK_REGISTER ret Lopen_128: // On some architectures preparing 5 blocks for small buffers is wasteful eor v25.16b, v25.16b, v25.16b mov x11, #1 mov v25.s[0], w11 mov v0.16b, v24.16b mov v1.16b, v24.16b mov v2.16b, v24.16b mov v5.16b, v28.16b mov v6.16b, v28.16b mov v7.16b, v28.16b mov v10.16b, v29.16b mov v11.16b, v29.16b mov v12.16b, v29.16b mov v17.16b, v30.16b add v15.4s, v17.4s, v25.4s add v16.4s, v15.4s, v25.4s mov x6, #10 Lopen_128_rounds: add v0.4s, v0.4s, v5.4s add v1.4s, v1.4s, v6.4s add v2.4s, v2.4s, v7.4s eor v15.16b, v15.16b, v0.16b eor v16.16b, v16.16b, v1.16b eor v17.16b, v17.16b, v2.16b rev32 v15.8h, v15.8h rev32 v16.8h, v16.8h rev32 v17.8h, v17.8h add v10.4s, v10.4s, v15.4s add v11.4s, v11.4s, v16.4s add v12.4s, v12.4s, v17.4s eor v5.16b, v5.16b, v10.16b eor v6.16b, v6.16b, v11.16b eor v7.16b, v7.16b, v12.16b ushr v20.4s, v5.4s, #20 sli v20.4s, v5.4s, #12 ushr v5.4s, v6.4s, #20 sli v5.4s, v6.4s, #12 ushr v6.4s, v7.4s, #20 sli v6.4s, v7.4s, #12 add v0.4s, v0.4s, v20.4s add v1.4s, v1.4s, v5.4s add v2.4s, v2.4s, v6.4s eor v15.16b, v15.16b, v0.16b eor v16.16b, v16.16b, v1.16b eor v17.16b, v17.16b, v2.16b tbl v15.16b, {v15.16b}, v26.16b tbl v16.16b, {v16.16b}, v26.16b tbl v17.16b, {v17.16b}, v26.16b add v10.4s, v10.4s, v15.4s add v11.4s, v11.4s, v16.4s add v12.4s, v12.4s, v17.4s eor v20.16b, v20.16b, v10.16b eor v5.16b, v5.16b, v11.16b eor v6.16b, v6.16b, v12.16b ushr v7.4s, v6.4s, #25 sli v7.4s, v6.4s, #7 ushr v6.4s, v5.4s, #25 sli v6.4s, v5.4s, #7 ushr v5.4s, v20.4s, #25 sli v5.4s, v20.4s, #7 ext v5.16b, v5.16b, v5.16b, #4 ext v6.16b, v6.16b, v6.16b, #4 ext v7.16b, v7.16b, v7.16b, #4 ext v10.16b, v10.16b, v10.16b, #8 ext v11.16b, v11.16b, v11.16b, #8 ext v12.16b, v12.16b, v12.16b, #8 ext v15.16b, v15.16b, v15.16b, #12 ext v16.16b, v16.16b, v16.16b, #12 ext v17.16b, v17.16b, v17.16b, #12 add v0.4s, v0.4s, v5.4s add v1.4s, v1.4s, v6.4s add v2.4s, v2.4s, v7.4s eor v15.16b, v15.16b, v0.16b eor v16.16b, v16.16b, v1.16b eor v17.16b, v17.16b, v2.16b rev32 v15.8h, v15.8h rev32 v16.8h, v16.8h rev32 v17.8h, v17.8h add v10.4s, v10.4s, v15.4s add v11.4s, v11.4s, v16.4s add v12.4s, v12.4s, v17.4s eor v5.16b, v5.16b, v10.16b eor v6.16b, v6.16b, v11.16b eor v7.16b, v7.16b, v12.16b ushr v20.4s, v5.4s, #20 sli v20.4s, v5.4s, #12 ushr v5.4s, v6.4s, #20 sli v5.4s, v6.4s, #12 ushr v6.4s, v7.4s, #20 sli v6.4s, v7.4s, #12 add v0.4s, v0.4s, v20.4s add v1.4s, v1.4s, v5.4s add v2.4s, v2.4s, v6.4s eor v15.16b, v15.16b, v0.16b eor v16.16b, v16.16b, v1.16b eor v17.16b, v17.16b, v2.16b tbl v15.16b, {v15.16b}, v26.16b tbl v16.16b, {v16.16b}, v26.16b tbl v17.16b, {v17.16b}, v26.16b add v10.4s, v10.4s, v15.4s add v11.4s, v11.4s, v16.4s add v12.4s, v12.4s, v17.4s eor v20.16b, v20.16b, v10.16b eor v5.16b, v5.16b, v11.16b eor v6.16b, v6.16b, v12.16b ushr v7.4s, v6.4s, #25 sli v7.4s, v6.4s, #7 ushr v6.4s, v5.4s, #25 sli v6.4s, v5.4s, #7 ushr v5.4s, v20.4s, #25 sli v5.4s, v20.4s, #7 ext v5.16b, v5.16b, v5.16b, #12 ext v6.16b, v6.16b, v6.16b, #12 ext v7.16b, v7.16b, v7.16b, #12 ext v10.16b, v10.16b, v10.16b, #8 ext v11.16b, v11.16b, v11.16b, #8 ext v12.16b, v12.16b, v12.16b, #8 ext v15.16b, v15.16b, v15.16b, #4 ext v16.16b, v16.16b, v16.16b, #4 ext v17.16b, v17.16b, v17.16b, #4 subs x6, x6, #1 b.hi Lopen_128_rounds add v0.4s, v0.4s, v24.4s add v1.4s, v1.4s, v24.4s add v2.4s, v2.4s, v24.4s add v5.4s, v5.4s, v28.4s add v6.4s, v6.4s, v28.4s add v7.4s, v7.4s, v28.4s add v10.4s, v10.4s, v29.4s add v11.4s, v11.4s, v29.4s add v30.4s, v30.4s, v25.4s add v15.4s, v15.4s, v30.4s add v30.4s, v30.4s, v25.4s add v16.4s, v16.4s, v30.4s and v2.16b, v2.16b, v27.16b mov x16, v2.d[0] // Move the R key to GPRs mov x17, v2.d[1] mov v27.16b, v7.16b // Store the S key bl Lpoly_hash_ad_internal Lopen_128_store: cmp x2, #64 b.lt Lopen_128_store_64 ld1 {v20.16b - v23.16b}, [x1], #64 mov x11, v20.d[0] mov x12, v20.d[1] adds x8, x8, x11 adcs x9, x9, x12 adc x10, x10, x15 mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0 umulh x12, x8, x16 mul x13, x9, x16 umulh x14, x9, x16 adds x12, x12, x13 mul x13, x10, x16 adc x13, x13, x14 mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0] umulh x8, x8, x17 adds x12, x12, x14 mul x14, x9, x17 umulh x9, x9, x17 adcs x14, x14, x8 mul x10, x10, x17 adc x10, x10, x9 adds x13, x13, x14 adc x14, x10, xzr and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3) and x8, x13, #-4 extr x13, x14, x13, #2 adds x8, x8, x11 lsr x11, x14, #2 adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits adds x8, x8, x13 adcs x9, x9, x12 adc x10, x10, xzr // At this point acc2 has the value of 4 at most mov x11, v21.d[0] mov x12, v21.d[1] adds x8, x8, x11 adcs x9, x9, x12 adc x10, x10, x15 mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0 umulh x12, x8, x16 mul x13, x9, x16 umulh x14, x9, x16 adds x12, x12, x13 mul x13, x10, x16 adc x13, x13, x14 mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0] umulh x8, x8, x17 adds x12, x12, x14 mul x14, x9, x17 umulh x9, x9, x17 adcs x14, x14, x8 mul x10, x10, x17 adc x10, x10, x9 adds x13, x13, x14 adc x14, x10, xzr and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3) and x8, x13, #-4 extr x13, x14, x13, #2 adds x8, x8, x11 lsr x11, x14, #2 adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits adds x8, x8, x13 adcs x9, x9, x12 adc x10, x10, xzr // At this point acc2 has the value of 4 at most mov x11, v22.d[0] mov x12, v22.d[1] adds x8, x8, x11 adcs x9, x9, x12 adc x10, x10, x15 mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0 umulh x12, x8, x16 mul x13, x9, x16 umulh x14, x9, x16 adds x12, x12, x13 mul x13, x10, x16 adc x13, x13, x14 mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0] umulh x8, x8, x17 adds x12, x12, x14 mul x14, x9, x17 umulh x9, x9, x17 adcs x14, x14, x8 mul x10, x10, x17 adc x10, x10, x9 adds x13, x13, x14 adc x14, x10, xzr and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3) and x8, x13, #-4 extr x13, x14, x13, #2 adds x8, x8, x11 lsr x11, x14, #2 adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits adds x8, x8, x13 adcs x9, x9, x12 adc x10, x10, xzr // At this point acc2 has the value of 4 at most mov x11, v23.d[0] mov x12, v23.d[1] adds x8, x8, x11 adcs x9, x9, x12 adc x10, x10, x15 mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0 umulh x12, x8, x16 mul x13, x9, x16 umulh x14, x9, x16 adds x12, x12, x13 mul x13, x10, x16 adc x13, x13, x14 mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0] umulh x8, x8, x17 adds x12, x12, x14 mul x14, x9, x17 umulh x9, x9, x17 adcs x14, x14, x8 mul x10, x10, x17 adc x10, x10, x9 adds x13, x13, x14 adc x14, x10, xzr and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3) and x8, x13, #-4 extr x13, x14, x13, #2 adds x8, x8, x11 lsr x11, x14, #2 adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits adds x8, x8, x13 adcs x9, x9, x12 adc x10, x10, xzr // At this point acc2 has the value of 4 at most eor v20.16b, v20.16b, v0.16b eor v21.16b, v21.16b, v5.16b eor v22.16b, v22.16b, v10.16b eor v23.16b, v23.16b, v15.16b st1 {v20.16b - v23.16b}, [x0], #64 sub x2, x2, #64 mov v0.16b, v1.16b mov v5.16b, v6.16b mov v10.16b, v11.16b mov v15.16b, v16.16b Lopen_128_store_64: lsr x4, x2, #4 mov x3, x1 Lopen_128_hash_64: cbz x4, Lopen_tail_64_store ldp x11, x12, [x3], 16 adds x8, x8, x11 adcs x9, x9, x12 adc x10, x10, x15 mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0 umulh x12, x8, x16 mul x13, x9, x16 umulh x14, x9, x16 adds x12, x12, x13 mul x13, x10, x16 adc x13, x13, x14 mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0] umulh x8, x8, x17 adds x12, x12, x14 mul x14, x9, x17 umulh x9, x9, x17 adcs x14, x14, x8 mul x10, x10, x17 adc x10, x10, x9 adds x13, x13, x14 adc x14, x10, xzr and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3) and x8, x13, #-4 extr x13, x14, x13, #2 adds x8, x8, x11 lsr x11, x14, #2 adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits adds x8, x8, x13 adcs x9, x9, x12 adc x10, x10, xzr // At this point acc2 has the value of 4 at most sub x4, x4, #1 b Lopen_128_hash_64 .cfi_endproc #endif // !OPENSSL_NO_ASM && defined(OPENSSL_AARCH64) && defined(_WIN32)
Vtyeshe/geoai-backend
34,239
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/ring-0.17.13/pregenerated/sha256-armv8-linux64.S
// This file is generated from a similarly-named Perl script in the BoringSSL // source tree. Do not edit by hand. #include <ring-core/asm_base.h> #if !defined(OPENSSL_NO_ASM) && defined(OPENSSL_AARCH64) && defined(__ELF__) // Copyright 2014-2020 The OpenSSL Project Authors. All Rights Reserved. // // Licensed under the Apache License, Version 2.0 (the "License"); // you may not use this file except in compliance with the License. // You may obtain a copy of the License at // // https://www.apache.org/licenses/LICENSE-2.0 // // Unless required by applicable law or agreed to in writing, software // distributed under the License is distributed on an "AS IS" BASIS, // WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. // See the License for the specific language governing permissions and // limitations under the License. // ==================================================================== // Written by Andy Polyakov <appro@openssl.org> for the OpenSSL // project. // ==================================================================== // // SHA256/512 for ARMv8. // // Performance in cycles per processed byte and improvement coefficient // over code generated with "default" compiler: // // SHA256-hw SHA256(*) SHA512 // Apple A7 1.97 10.5 (+33%) 6.73 (-1%(**)) // Cortex-A53 2.38 15.5 (+115%) 10.0 (+150%(***)) // Cortex-A57 2.31 11.6 (+86%) 7.51 (+260%(***)) // Denver 2.01 10.5 (+26%) 6.70 (+8%) // X-Gene 20.0 (+100%) 12.8 (+300%(***)) // Mongoose 2.36 13.0 (+50%) 8.36 (+33%) // Kryo 1.92 17.4 (+30%) 11.2 (+8%) // // (*) Software SHA256 results are of lesser relevance, presented // mostly for informational purposes. // (**) The result is a trade-off: it's possible to improve it by // 10% (or by 1 cycle per round), but at the cost of 20% loss // on Cortex-A53 (or by 4 cycles per round). // (***) Super-impressive coefficients over gcc-generated code are // indication of some compiler "pathology", most notably code // generated with -mgeneral-regs-only is significantly faster // and the gap is only 40-90%. #ifndef __KERNEL__ #endif .text .globl sha256_block_data_order_nohw .hidden sha256_block_data_order_nohw .type sha256_block_data_order_nohw,%function .align 6 sha256_block_data_order_nohw: AARCH64_SIGN_LINK_REGISTER stp x29,x30,[sp,#-128]! add x29,sp,#0 stp x19,x20,[sp,#16] stp x21,x22,[sp,#32] stp x23,x24,[sp,#48] stp x25,x26,[sp,#64] stp x27,x28,[sp,#80] sub sp,sp,#4*4 ldp w20,w21,[x0] // load context ldp w22,w23,[x0,#2*4] ldp w24,w25,[x0,#4*4] add x2,x1,x2,lsl#6 // end of input ldp w26,w27,[x0,#6*4] adrp x30,.LK256 add x30,x30,:lo12:.LK256 stp x0,x2,[x29,#96] .Loop: ldp w3,w4,[x1],#2*4 ldr w19,[x30],#4 // *K++ eor w28,w21,w22 // magic seed str x1,[x29,#112] #ifndef __AARCH64EB__ rev w3,w3 // 0 #endif ror w16,w24,#6 add w27,w27,w19 // h+=K[i] eor w6,w24,w24,ror#14 and w17,w25,w24 bic w19,w26,w24 add w27,w27,w3 // h+=X[i] orr w17,w17,w19 // Ch(e,f,g) eor w19,w20,w21 // a^b, b^c in next round eor w16,w16,w6,ror#11 // Sigma1(e) ror w6,w20,#2 add w27,w27,w17 // h+=Ch(e,f,g) eor w17,w20,w20,ror#9 add w27,w27,w16 // h+=Sigma1(e) and w28,w28,w19 // (b^c)&=(a^b) add w23,w23,w27 // d+=h eor w28,w28,w21 // Maj(a,b,c) eor w17,w6,w17,ror#13 // Sigma0(a) add w27,w27,w28 // h+=Maj(a,b,c) ldr w28,[x30],#4 // *K++, w19 in next round //add w27,w27,w17 // h+=Sigma0(a) #ifndef __AARCH64EB__ rev w4,w4 // 1 #endif ldp w5,w6,[x1],#2*4 add w27,w27,w17 // h+=Sigma0(a) ror w16,w23,#6 add w26,w26,w28 // h+=K[i] eor w7,w23,w23,ror#14 and w17,w24,w23 bic w28,w25,w23 add w26,w26,w4 // h+=X[i] orr w17,w17,w28 // Ch(e,f,g) eor w28,w27,w20 // a^b, b^c in next round eor w16,w16,w7,ror#11 // Sigma1(e) ror w7,w27,#2 add w26,w26,w17 // h+=Ch(e,f,g) eor w17,w27,w27,ror#9 add w26,w26,w16 // h+=Sigma1(e) and w19,w19,w28 // (b^c)&=(a^b) add w22,w22,w26 // d+=h eor w19,w19,w20 // Maj(a,b,c) eor w17,w7,w17,ror#13 // Sigma0(a) add w26,w26,w19 // h+=Maj(a,b,c) ldr w19,[x30],#4 // *K++, w28 in next round //add w26,w26,w17 // h+=Sigma0(a) #ifndef __AARCH64EB__ rev w5,w5 // 2 #endif add w26,w26,w17 // h+=Sigma0(a) ror w16,w22,#6 add w25,w25,w19 // h+=K[i] eor w8,w22,w22,ror#14 and w17,w23,w22 bic w19,w24,w22 add w25,w25,w5 // h+=X[i] orr w17,w17,w19 // Ch(e,f,g) eor w19,w26,w27 // a^b, b^c in next round eor w16,w16,w8,ror#11 // Sigma1(e) ror w8,w26,#2 add w25,w25,w17 // h+=Ch(e,f,g) eor w17,w26,w26,ror#9 add w25,w25,w16 // h+=Sigma1(e) and w28,w28,w19 // (b^c)&=(a^b) add w21,w21,w25 // d+=h eor w28,w28,w27 // Maj(a,b,c) eor w17,w8,w17,ror#13 // Sigma0(a) add w25,w25,w28 // h+=Maj(a,b,c) ldr w28,[x30],#4 // *K++, w19 in next round //add w25,w25,w17 // h+=Sigma0(a) #ifndef __AARCH64EB__ rev w6,w6 // 3 #endif ldp w7,w8,[x1],#2*4 add w25,w25,w17 // h+=Sigma0(a) ror w16,w21,#6 add w24,w24,w28 // h+=K[i] eor w9,w21,w21,ror#14 and w17,w22,w21 bic w28,w23,w21 add w24,w24,w6 // h+=X[i] orr w17,w17,w28 // Ch(e,f,g) eor w28,w25,w26 // a^b, b^c in next round eor w16,w16,w9,ror#11 // Sigma1(e) ror w9,w25,#2 add w24,w24,w17 // h+=Ch(e,f,g) eor w17,w25,w25,ror#9 add w24,w24,w16 // h+=Sigma1(e) and w19,w19,w28 // (b^c)&=(a^b) add w20,w20,w24 // d+=h eor w19,w19,w26 // Maj(a,b,c) eor w17,w9,w17,ror#13 // Sigma0(a) add w24,w24,w19 // h+=Maj(a,b,c) ldr w19,[x30],#4 // *K++, w28 in next round //add w24,w24,w17 // h+=Sigma0(a) #ifndef __AARCH64EB__ rev w7,w7 // 4 #endif add w24,w24,w17 // h+=Sigma0(a) ror w16,w20,#6 add w23,w23,w19 // h+=K[i] eor w10,w20,w20,ror#14 and w17,w21,w20 bic w19,w22,w20 add w23,w23,w7 // h+=X[i] orr w17,w17,w19 // Ch(e,f,g) eor w19,w24,w25 // a^b, b^c in next round eor w16,w16,w10,ror#11 // Sigma1(e) ror w10,w24,#2 add w23,w23,w17 // h+=Ch(e,f,g) eor w17,w24,w24,ror#9 add w23,w23,w16 // h+=Sigma1(e) and w28,w28,w19 // (b^c)&=(a^b) add w27,w27,w23 // d+=h eor w28,w28,w25 // Maj(a,b,c) eor w17,w10,w17,ror#13 // Sigma0(a) add w23,w23,w28 // h+=Maj(a,b,c) ldr w28,[x30],#4 // *K++, w19 in next round //add w23,w23,w17 // h+=Sigma0(a) #ifndef __AARCH64EB__ rev w8,w8 // 5 #endif ldp w9,w10,[x1],#2*4 add w23,w23,w17 // h+=Sigma0(a) ror w16,w27,#6 add w22,w22,w28 // h+=K[i] eor w11,w27,w27,ror#14 and w17,w20,w27 bic w28,w21,w27 add w22,w22,w8 // h+=X[i] orr w17,w17,w28 // Ch(e,f,g) eor w28,w23,w24 // a^b, b^c in next round eor w16,w16,w11,ror#11 // Sigma1(e) ror w11,w23,#2 add w22,w22,w17 // h+=Ch(e,f,g) eor w17,w23,w23,ror#9 add w22,w22,w16 // h+=Sigma1(e) and w19,w19,w28 // (b^c)&=(a^b) add w26,w26,w22 // d+=h eor w19,w19,w24 // Maj(a,b,c) eor w17,w11,w17,ror#13 // Sigma0(a) add w22,w22,w19 // h+=Maj(a,b,c) ldr w19,[x30],#4 // *K++, w28 in next round //add w22,w22,w17 // h+=Sigma0(a) #ifndef __AARCH64EB__ rev w9,w9 // 6 #endif add w22,w22,w17 // h+=Sigma0(a) ror w16,w26,#6 add w21,w21,w19 // h+=K[i] eor w12,w26,w26,ror#14 and w17,w27,w26 bic w19,w20,w26 add w21,w21,w9 // h+=X[i] orr w17,w17,w19 // Ch(e,f,g) eor w19,w22,w23 // a^b, b^c in next round eor w16,w16,w12,ror#11 // Sigma1(e) ror w12,w22,#2 add w21,w21,w17 // h+=Ch(e,f,g) eor w17,w22,w22,ror#9 add w21,w21,w16 // h+=Sigma1(e) and w28,w28,w19 // (b^c)&=(a^b) add w25,w25,w21 // d+=h eor w28,w28,w23 // Maj(a,b,c) eor w17,w12,w17,ror#13 // Sigma0(a) add w21,w21,w28 // h+=Maj(a,b,c) ldr w28,[x30],#4 // *K++, w19 in next round //add w21,w21,w17 // h+=Sigma0(a) #ifndef __AARCH64EB__ rev w10,w10 // 7 #endif ldp w11,w12,[x1],#2*4 add w21,w21,w17 // h+=Sigma0(a) ror w16,w25,#6 add w20,w20,w28 // h+=K[i] eor w13,w25,w25,ror#14 and w17,w26,w25 bic w28,w27,w25 add w20,w20,w10 // h+=X[i] orr w17,w17,w28 // Ch(e,f,g) eor w28,w21,w22 // a^b, b^c in next round eor w16,w16,w13,ror#11 // Sigma1(e) ror w13,w21,#2 add w20,w20,w17 // h+=Ch(e,f,g) eor w17,w21,w21,ror#9 add w20,w20,w16 // h+=Sigma1(e) and w19,w19,w28 // (b^c)&=(a^b) add w24,w24,w20 // d+=h eor w19,w19,w22 // Maj(a,b,c) eor w17,w13,w17,ror#13 // Sigma0(a) add w20,w20,w19 // h+=Maj(a,b,c) ldr w19,[x30],#4 // *K++, w28 in next round //add w20,w20,w17 // h+=Sigma0(a) #ifndef __AARCH64EB__ rev w11,w11 // 8 #endif add w20,w20,w17 // h+=Sigma0(a) ror w16,w24,#6 add w27,w27,w19 // h+=K[i] eor w14,w24,w24,ror#14 and w17,w25,w24 bic w19,w26,w24 add w27,w27,w11 // h+=X[i] orr w17,w17,w19 // Ch(e,f,g) eor w19,w20,w21 // a^b, b^c in next round eor w16,w16,w14,ror#11 // Sigma1(e) ror w14,w20,#2 add w27,w27,w17 // h+=Ch(e,f,g) eor w17,w20,w20,ror#9 add w27,w27,w16 // h+=Sigma1(e) and w28,w28,w19 // (b^c)&=(a^b) add w23,w23,w27 // d+=h eor w28,w28,w21 // Maj(a,b,c) eor w17,w14,w17,ror#13 // Sigma0(a) add w27,w27,w28 // h+=Maj(a,b,c) ldr w28,[x30],#4 // *K++, w19 in next round //add w27,w27,w17 // h+=Sigma0(a) #ifndef __AARCH64EB__ rev w12,w12 // 9 #endif ldp w13,w14,[x1],#2*4 add w27,w27,w17 // h+=Sigma0(a) ror w16,w23,#6 add w26,w26,w28 // h+=K[i] eor w15,w23,w23,ror#14 and w17,w24,w23 bic w28,w25,w23 add w26,w26,w12 // h+=X[i] orr w17,w17,w28 // Ch(e,f,g) eor w28,w27,w20 // a^b, b^c in next round eor w16,w16,w15,ror#11 // Sigma1(e) ror w15,w27,#2 add w26,w26,w17 // h+=Ch(e,f,g) eor w17,w27,w27,ror#9 add w26,w26,w16 // h+=Sigma1(e) and w19,w19,w28 // (b^c)&=(a^b) add w22,w22,w26 // d+=h eor w19,w19,w20 // Maj(a,b,c) eor w17,w15,w17,ror#13 // Sigma0(a) add w26,w26,w19 // h+=Maj(a,b,c) ldr w19,[x30],#4 // *K++, w28 in next round //add w26,w26,w17 // h+=Sigma0(a) #ifndef __AARCH64EB__ rev w13,w13 // 10 #endif add w26,w26,w17 // h+=Sigma0(a) ror w16,w22,#6 add w25,w25,w19 // h+=K[i] eor w0,w22,w22,ror#14 and w17,w23,w22 bic w19,w24,w22 add w25,w25,w13 // h+=X[i] orr w17,w17,w19 // Ch(e,f,g) eor w19,w26,w27 // a^b, b^c in next round eor w16,w16,w0,ror#11 // Sigma1(e) ror w0,w26,#2 add w25,w25,w17 // h+=Ch(e,f,g) eor w17,w26,w26,ror#9 add w25,w25,w16 // h+=Sigma1(e) and w28,w28,w19 // (b^c)&=(a^b) add w21,w21,w25 // d+=h eor w28,w28,w27 // Maj(a,b,c) eor w17,w0,w17,ror#13 // Sigma0(a) add w25,w25,w28 // h+=Maj(a,b,c) ldr w28,[x30],#4 // *K++, w19 in next round //add w25,w25,w17 // h+=Sigma0(a) #ifndef __AARCH64EB__ rev w14,w14 // 11 #endif ldp w15,w0,[x1],#2*4 add w25,w25,w17 // h+=Sigma0(a) str w6,[sp,#12] ror w16,w21,#6 add w24,w24,w28 // h+=K[i] eor w6,w21,w21,ror#14 and w17,w22,w21 bic w28,w23,w21 add w24,w24,w14 // h+=X[i] orr w17,w17,w28 // Ch(e,f,g) eor w28,w25,w26 // a^b, b^c in next round eor w16,w16,w6,ror#11 // Sigma1(e) ror w6,w25,#2 add w24,w24,w17 // h+=Ch(e,f,g) eor w17,w25,w25,ror#9 add w24,w24,w16 // h+=Sigma1(e) and w19,w19,w28 // (b^c)&=(a^b) add w20,w20,w24 // d+=h eor w19,w19,w26 // Maj(a,b,c) eor w17,w6,w17,ror#13 // Sigma0(a) add w24,w24,w19 // h+=Maj(a,b,c) ldr w19,[x30],#4 // *K++, w28 in next round //add w24,w24,w17 // h+=Sigma0(a) #ifndef __AARCH64EB__ rev w15,w15 // 12 #endif add w24,w24,w17 // h+=Sigma0(a) str w7,[sp,#0] ror w16,w20,#6 add w23,w23,w19 // h+=K[i] eor w7,w20,w20,ror#14 and w17,w21,w20 bic w19,w22,w20 add w23,w23,w15 // h+=X[i] orr w17,w17,w19 // Ch(e,f,g) eor w19,w24,w25 // a^b, b^c in next round eor w16,w16,w7,ror#11 // Sigma1(e) ror w7,w24,#2 add w23,w23,w17 // h+=Ch(e,f,g) eor w17,w24,w24,ror#9 add w23,w23,w16 // h+=Sigma1(e) and w28,w28,w19 // (b^c)&=(a^b) add w27,w27,w23 // d+=h eor w28,w28,w25 // Maj(a,b,c) eor w17,w7,w17,ror#13 // Sigma0(a) add w23,w23,w28 // h+=Maj(a,b,c) ldr w28,[x30],#4 // *K++, w19 in next round //add w23,w23,w17 // h+=Sigma0(a) #ifndef __AARCH64EB__ rev w0,w0 // 13 #endif ldp w1,w2,[x1] add w23,w23,w17 // h+=Sigma0(a) str w8,[sp,#4] ror w16,w27,#6 add w22,w22,w28 // h+=K[i] eor w8,w27,w27,ror#14 and w17,w20,w27 bic w28,w21,w27 add w22,w22,w0 // h+=X[i] orr w17,w17,w28 // Ch(e,f,g) eor w28,w23,w24 // a^b, b^c in next round eor w16,w16,w8,ror#11 // Sigma1(e) ror w8,w23,#2 add w22,w22,w17 // h+=Ch(e,f,g) eor w17,w23,w23,ror#9 add w22,w22,w16 // h+=Sigma1(e) and w19,w19,w28 // (b^c)&=(a^b) add w26,w26,w22 // d+=h eor w19,w19,w24 // Maj(a,b,c) eor w17,w8,w17,ror#13 // Sigma0(a) add w22,w22,w19 // h+=Maj(a,b,c) ldr w19,[x30],#4 // *K++, w28 in next round //add w22,w22,w17 // h+=Sigma0(a) #ifndef __AARCH64EB__ rev w1,w1 // 14 #endif ldr w6,[sp,#12] add w22,w22,w17 // h+=Sigma0(a) str w9,[sp,#8] ror w16,w26,#6 add w21,w21,w19 // h+=K[i] eor w9,w26,w26,ror#14 and w17,w27,w26 bic w19,w20,w26 add w21,w21,w1 // h+=X[i] orr w17,w17,w19 // Ch(e,f,g) eor w19,w22,w23 // a^b, b^c in next round eor w16,w16,w9,ror#11 // Sigma1(e) ror w9,w22,#2 add w21,w21,w17 // h+=Ch(e,f,g) eor w17,w22,w22,ror#9 add w21,w21,w16 // h+=Sigma1(e) and w28,w28,w19 // (b^c)&=(a^b) add w25,w25,w21 // d+=h eor w28,w28,w23 // Maj(a,b,c) eor w17,w9,w17,ror#13 // Sigma0(a) add w21,w21,w28 // h+=Maj(a,b,c) ldr w28,[x30],#4 // *K++, w19 in next round //add w21,w21,w17 // h+=Sigma0(a) #ifndef __AARCH64EB__ rev w2,w2 // 15 #endif ldr w7,[sp,#0] add w21,w21,w17 // h+=Sigma0(a) str w10,[sp,#12] ror w16,w25,#6 add w20,w20,w28 // h+=K[i] ror w9,w4,#7 and w17,w26,w25 ror w8,w1,#17 bic w28,w27,w25 ror w10,w21,#2 add w20,w20,w2 // h+=X[i] eor w16,w16,w25,ror#11 eor w9,w9,w4,ror#18 orr w17,w17,w28 // Ch(e,f,g) eor w28,w21,w22 // a^b, b^c in next round eor w16,w16,w25,ror#25 // Sigma1(e) eor w10,w10,w21,ror#13 add w20,w20,w17 // h+=Ch(e,f,g) and w19,w19,w28 // (b^c)&=(a^b) eor w8,w8,w1,ror#19 eor w9,w9,w4,lsr#3 // sigma0(X[i+1]) add w20,w20,w16 // h+=Sigma1(e) eor w19,w19,w22 // Maj(a,b,c) eor w17,w10,w21,ror#22 // Sigma0(a) eor w8,w8,w1,lsr#10 // sigma1(X[i+14]) add w3,w3,w12 add w24,w24,w20 // d+=h add w20,w20,w19 // h+=Maj(a,b,c) ldr w19,[x30],#4 // *K++, w28 in next round add w3,w3,w9 add w20,w20,w17 // h+=Sigma0(a) add w3,w3,w8 .Loop_16_xx: ldr w8,[sp,#4] str w11,[sp,#0] ror w16,w24,#6 add w27,w27,w19 // h+=K[i] ror w10,w5,#7 and w17,w25,w24 ror w9,w2,#17 bic w19,w26,w24 ror w11,w20,#2 add w27,w27,w3 // h+=X[i] eor w16,w16,w24,ror#11 eor w10,w10,w5,ror#18 orr w17,w17,w19 // Ch(e,f,g) eor w19,w20,w21 // a^b, b^c in next round eor w16,w16,w24,ror#25 // Sigma1(e) eor w11,w11,w20,ror#13 add w27,w27,w17 // h+=Ch(e,f,g) and w28,w28,w19 // (b^c)&=(a^b) eor w9,w9,w2,ror#19 eor w10,w10,w5,lsr#3 // sigma0(X[i+1]) add w27,w27,w16 // h+=Sigma1(e) eor w28,w28,w21 // Maj(a,b,c) eor w17,w11,w20,ror#22 // Sigma0(a) eor w9,w9,w2,lsr#10 // sigma1(X[i+14]) add w4,w4,w13 add w23,w23,w27 // d+=h add w27,w27,w28 // h+=Maj(a,b,c) ldr w28,[x30],#4 // *K++, w19 in next round add w4,w4,w10 add w27,w27,w17 // h+=Sigma0(a) add w4,w4,w9 ldr w9,[sp,#8] str w12,[sp,#4] ror w16,w23,#6 add w26,w26,w28 // h+=K[i] ror w11,w6,#7 and w17,w24,w23 ror w10,w3,#17 bic w28,w25,w23 ror w12,w27,#2 add w26,w26,w4 // h+=X[i] eor w16,w16,w23,ror#11 eor w11,w11,w6,ror#18 orr w17,w17,w28 // Ch(e,f,g) eor w28,w27,w20 // a^b, b^c in next round eor w16,w16,w23,ror#25 // Sigma1(e) eor w12,w12,w27,ror#13 add w26,w26,w17 // h+=Ch(e,f,g) and w19,w19,w28 // (b^c)&=(a^b) eor w10,w10,w3,ror#19 eor w11,w11,w6,lsr#3 // sigma0(X[i+1]) add w26,w26,w16 // h+=Sigma1(e) eor w19,w19,w20 // Maj(a,b,c) eor w17,w12,w27,ror#22 // Sigma0(a) eor w10,w10,w3,lsr#10 // sigma1(X[i+14]) add w5,w5,w14 add w22,w22,w26 // d+=h add w26,w26,w19 // h+=Maj(a,b,c) ldr w19,[x30],#4 // *K++, w28 in next round add w5,w5,w11 add w26,w26,w17 // h+=Sigma0(a) add w5,w5,w10 ldr w10,[sp,#12] str w13,[sp,#8] ror w16,w22,#6 add w25,w25,w19 // h+=K[i] ror w12,w7,#7 and w17,w23,w22 ror w11,w4,#17 bic w19,w24,w22 ror w13,w26,#2 add w25,w25,w5 // h+=X[i] eor w16,w16,w22,ror#11 eor w12,w12,w7,ror#18 orr w17,w17,w19 // Ch(e,f,g) eor w19,w26,w27 // a^b, b^c in next round eor w16,w16,w22,ror#25 // Sigma1(e) eor w13,w13,w26,ror#13 add w25,w25,w17 // h+=Ch(e,f,g) and w28,w28,w19 // (b^c)&=(a^b) eor w11,w11,w4,ror#19 eor w12,w12,w7,lsr#3 // sigma0(X[i+1]) add w25,w25,w16 // h+=Sigma1(e) eor w28,w28,w27 // Maj(a,b,c) eor w17,w13,w26,ror#22 // Sigma0(a) eor w11,w11,w4,lsr#10 // sigma1(X[i+14]) add w6,w6,w15 add w21,w21,w25 // d+=h add w25,w25,w28 // h+=Maj(a,b,c) ldr w28,[x30],#4 // *K++, w19 in next round add w6,w6,w12 add w25,w25,w17 // h+=Sigma0(a) add w6,w6,w11 ldr w11,[sp,#0] str w14,[sp,#12] ror w16,w21,#6 add w24,w24,w28 // h+=K[i] ror w13,w8,#7 and w17,w22,w21 ror w12,w5,#17 bic w28,w23,w21 ror w14,w25,#2 add w24,w24,w6 // h+=X[i] eor w16,w16,w21,ror#11 eor w13,w13,w8,ror#18 orr w17,w17,w28 // Ch(e,f,g) eor w28,w25,w26 // a^b, b^c in next round eor w16,w16,w21,ror#25 // Sigma1(e) eor w14,w14,w25,ror#13 add w24,w24,w17 // h+=Ch(e,f,g) and w19,w19,w28 // (b^c)&=(a^b) eor w12,w12,w5,ror#19 eor w13,w13,w8,lsr#3 // sigma0(X[i+1]) add w24,w24,w16 // h+=Sigma1(e) eor w19,w19,w26 // Maj(a,b,c) eor w17,w14,w25,ror#22 // Sigma0(a) eor w12,w12,w5,lsr#10 // sigma1(X[i+14]) add w7,w7,w0 add w20,w20,w24 // d+=h add w24,w24,w19 // h+=Maj(a,b,c) ldr w19,[x30],#4 // *K++, w28 in next round add w7,w7,w13 add w24,w24,w17 // h+=Sigma0(a) add w7,w7,w12 ldr w12,[sp,#4] str w15,[sp,#0] ror w16,w20,#6 add w23,w23,w19 // h+=K[i] ror w14,w9,#7 and w17,w21,w20 ror w13,w6,#17 bic w19,w22,w20 ror w15,w24,#2 add w23,w23,w7 // h+=X[i] eor w16,w16,w20,ror#11 eor w14,w14,w9,ror#18 orr w17,w17,w19 // Ch(e,f,g) eor w19,w24,w25 // a^b, b^c in next round eor w16,w16,w20,ror#25 // Sigma1(e) eor w15,w15,w24,ror#13 add w23,w23,w17 // h+=Ch(e,f,g) and w28,w28,w19 // (b^c)&=(a^b) eor w13,w13,w6,ror#19 eor w14,w14,w9,lsr#3 // sigma0(X[i+1]) add w23,w23,w16 // h+=Sigma1(e) eor w28,w28,w25 // Maj(a,b,c) eor w17,w15,w24,ror#22 // Sigma0(a) eor w13,w13,w6,lsr#10 // sigma1(X[i+14]) add w8,w8,w1 add w27,w27,w23 // d+=h add w23,w23,w28 // h+=Maj(a,b,c) ldr w28,[x30],#4 // *K++, w19 in next round add w8,w8,w14 add w23,w23,w17 // h+=Sigma0(a) add w8,w8,w13 ldr w13,[sp,#8] str w0,[sp,#4] ror w16,w27,#6 add w22,w22,w28 // h+=K[i] ror w15,w10,#7 and w17,w20,w27 ror w14,w7,#17 bic w28,w21,w27 ror w0,w23,#2 add w22,w22,w8 // h+=X[i] eor w16,w16,w27,ror#11 eor w15,w15,w10,ror#18 orr w17,w17,w28 // Ch(e,f,g) eor w28,w23,w24 // a^b, b^c in next round eor w16,w16,w27,ror#25 // Sigma1(e) eor w0,w0,w23,ror#13 add w22,w22,w17 // h+=Ch(e,f,g) and w19,w19,w28 // (b^c)&=(a^b) eor w14,w14,w7,ror#19 eor w15,w15,w10,lsr#3 // sigma0(X[i+1]) add w22,w22,w16 // h+=Sigma1(e) eor w19,w19,w24 // Maj(a,b,c) eor w17,w0,w23,ror#22 // Sigma0(a) eor w14,w14,w7,lsr#10 // sigma1(X[i+14]) add w9,w9,w2 add w26,w26,w22 // d+=h add w22,w22,w19 // h+=Maj(a,b,c) ldr w19,[x30],#4 // *K++, w28 in next round add w9,w9,w15 add w22,w22,w17 // h+=Sigma0(a) add w9,w9,w14 ldr w14,[sp,#12] str w1,[sp,#8] ror w16,w26,#6 add w21,w21,w19 // h+=K[i] ror w0,w11,#7 and w17,w27,w26 ror w15,w8,#17 bic w19,w20,w26 ror w1,w22,#2 add w21,w21,w9 // h+=X[i] eor w16,w16,w26,ror#11 eor w0,w0,w11,ror#18 orr w17,w17,w19 // Ch(e,f,g) eor w19,w22,w23 // a^b, b^c in next round eor w16,w16,w26,ror#25 // Sigma1(e) eor w1,w1,w22,ror#13 add w21,w21,w17 // h+=Ch(e,f,g) and w28,w28,w19 // (b^c)&=(a^b) eor w15,w15,w8,ror#19 eor w0,w0,w11,lsr#3 // sigma0(X[i+1]) add w21,w21,w16 // h+=Sigma1(e) eor w28,w28,w23 // Maj(a,b,c) eor w17,w1,w22,ror#22 // Sigma0(a) eor w15,w15,w8,lsr#10 // sigma1(X[i+14]) add w10,w10,w3 add w25,w25,w21 // d+=h add w21,w21,w28 // h+=Maj(a,b,c) ldr w28,[x30],#4 // *K++, w19 in next round add w10,w10,w0 add w21,w21,w17 // h+=Sigma0(a) add w10,w10,w15 ldr w15,[sp,#0] str w2,[sp,#12] ror w16,w25,#6 add w20,w20,w28 // h+=K[i] ror w1,w12,#7 and w17,w26,w25 ror w0,w9,#17 bic w28,w27,w25 ror w2,w21,#2 add w20,w20,w10 // h+=X[i] eor w16,w16,w25,ror#11 eor w1,w1,w12,ror#18 orr w17,w17,w28 // Ch(e,f,g) eor w28,w21,w22 // a^b, b^c in next round eor w16,w16,w25,ror#25 // Sigma1(e) eor w2,w2,w21,ror#13 add w20,w20,w17 // h+=Ch(e,f,g) and w19,w19,w28 // (b^c)&=(a^b) eor w0,w0,w9,ror#19 eor w1,w1,w12,lsr#3 // sigma0(X[i+1]) add w20,w20,w16 // h+=Sigma1(e) eor w19,w19,w22 // Maj(a,b,c) eor w17,w2,w21,ror#22 // Sigma0(a) eor w0,w0,w9,lsr#10 // sigma1(X[i+14]) add w11,w11,w4 add w24,w24,w20 // d+=h add w20,w20,w19 // h+=Maj(a,b,c) ldr w19,[x30],#4 // *K++, w28 in next round add w11,w11,w1 add w20,w20,w17 // h+=Sigma0(a) add w11,w11,w0 ldr w0,[sp,#4] str w3,[sp,#0] ror w16,w24,#6 add w27,w27,w19 // h+=K[i] ror w2,w13,#7 and w17,w25,w24 ror w1,w10,#17 bic w19,w26,w24 ror w3,w20,#2 add w27,w27,w11 // h+=X[i] eor w16,w16,w24,ror#11 eor w2,w2,w13,ror#18 orr w17,w17,w19 // Ch(e,f,g) eor w19,w20,w21 // a^b, b^c in next round eor w16,w16,w24,ror#25 // Sigma1(e) eor w3,w3,w20,ror#13 add w27,w27,w17 // h+=Ch(e,f,g) and w28,w28,w19 // (b^c)&=(a^b) eor w1,w1,w10,ror#19 eor w2,w2,w13,lsr#3 // sigma0(X[i+1]) add w27,w27,w16 // h+=Sigma1(e) eor w28,w28,w21 // Maj(a,b,c) eor w17,w3,w20,ror#22 // Sigma0(a) eor w1,w1,w10,lsr#10 // sigma1(X[i+14]) add w12,w12,w5 add w23,w23,w27 // d+=h add w27,w27,w28 // h+=Maj(a,b,c) ldr w28,[x30],#4 // *K++, w19 in next round add w12,w12,w2 add w27,w27,w17 // h+=Sigma0(a) add w12,w12,w1 ldr w1,[sp,#8] str w4,[sp,#4] ror w16,w23,#6 add w26,w26,w28 // h+=K[i] ror w3,w14,#7 and w17,w24,w23 ror w2,w11,#17 bic w28,w25,w23 ror w4,w27,#2 add w26,w26,w12 // h+=X[i] eor w16,w16,w23,ror#11 eor w3,w3,w14,ror#18 orr w17,w17,w28 // Ch(e,f,g) eor w28,w27,w20 // a^b, b^c in next round eor w16,w16,w23,ror#25 // Sigma1(e) eor w4,w4,w27,ror#13 add w26,w26,w17 // h+=Ch(e,f,g) and w19,w19,w28 // (b^c)&=(a^b) eor w2,w2,w11,ror#19 eor w3,w3,w14,lsr#3 // sigma0(X[i+1]) add w26,w26,w16 // h+=Sigma1(e) eor w19,w19,w20 // Maj(a,b,c) eor w17,w4,w27,ror#22 // Sigma0(a) eor w2,w2,w11,lsr#10 // sigma1(X[i+14]) add w13,w13,w6 add w22,w22,w26 // d+=h add w26,w26,w19 // h+=Maj(a,b,c) ldr w19,[x30],#4 // *K++, w28 in next round add w13,w13,w3 add w26,w26,w17 // h+=Sigma0(a) add w13,w13,w2 ldr w2,[sp,#12] str w5,[sp,#8] ror w16,w22,#6 add w25,w25,w19 // h+=K[i] ror w4,w15,#7 and w17,w23,w22 ror w3,w12,#17 bic w19,w24,w22 ror w5,w26,#2 add w25,w25,w13 // h+=X[i] eor w16,w16,w22,ror#11 eor w4,w4,w15,ror#18 orr w17,w17,w19 // Ch(e,f,g) eor w19,w26,w27 // a^b, b^c in next round eor w16,w16,w22,ror#25 // Sigma1(e) eor w5,w5,w26,ror#13 add w25,w25,w17 // h+=Ch(e,f,g) and w28,w28,w19 // (b^c)&=(a^b) eor w3,w3,w12,ror#19 eor w4,w4,w15,lsr#3 // sigma0(X[i+1]) add w25,w25,w16 // h+=Sigma1(e) eor w28,w28,w27 // Maj(a,b,c) eor w17,w5,w26,ror#22 // Sigma0(a) eor w3,w3,w12,lsr#10 // sigma1(X[i+14]) add w14,w14,w7 add w21,w21,w25 // d+=h add w25,w25,w28 // h+=Maj(a,b,c) ldr w28,[x30],#4 // *K++, w19 in next round add w14,w14,w4 add w25,w25,w17 // h+=Sigma0(a) add w14,w14,w3 ldr w3,[sp,#0] str w6,[sp,#12] ror w16,w21,#6 add w24,w24,w28 // h+=K[i] ror w5,w0,#7 and w17,w22,w21 ror w4,w13,#17 bic w28,w23,w21 ror w6,w25,#2 add w24,w24,w14 // h+=X[i] eor w16,w16,w21,ror#11 eor w5,w5,w0,ror#18 orr w17,w17,w28 // Ch(e,f,g) eor w28,w25,w26 // a^b, b^c in next round eor w16,w16,w21,ror#25 // Sigma1(e) eor w6,w6,w25,ror#13 add w24,w24,w17 // h+=Ch(e,f,g) and w19,w19,w28 // (b^c)&=(a^b) eor w4,w4,w13,ror#19 eor w5,w5,w0,lsr#3 // sigma0(X[i+1]) add w24,w24,w16 // h+=Sigma1(e) eor w19,w19,w26 // Maj(a,b,c) eor w17,w6,w25,ror#22 // Sigma0(a) eor w4,w4,w13,lsr#10 // sigma1(X[i+14]) add w15,w15,w8 add w20,w20,w24 // d+=h add w24,w24,w19 // h+=Maj(a,b,c) ldr w19,[x30],#4 // *K++, w28 in next round add w15,w15,w5 add w24,w24,w17 // h+=Sigma0(a) add w15,w15,w4 ldr w4,[sp,#4] str w7,[sp,#0] ror w16,w20,#6 add w23,w23,w19 // h+=K[i] ror w6,w1,#7 and w17,w21,w20 ror w5,w14,#17 bic w19,w22,w20 ror w7,w24,#2 add w23,w23,w15 // h+=X[i] eor w16,w16,w20,ror#11 eor w6,w6,w1,ror#18 orr w17,w17,w19 // Ch(e,f,g) eor w19,w24,w25 // a^b, b^c in next round eor w16,w16,w20,ror#25 // Sigma1(e) eor w7,w7,w24,ror#13 add w23,w23,w17 // h+=Ch(e,f,g) and w28,w28,w19 // (b^c)&=(a^b) eor w5,w5,w14,ror#19 eor w6,w6,w1,lsr#3 // sigma0(X[i+1]) add w23,w23,w16 // h+=Sigma1(e) eor w28,w28,w25 // Maj(a,b,c) eor w17,w7,w24,ror#22 // Sigma0(a) eor w5,w5,w14,lsr#10 // sigma1(X[i+14]) add w0,w0,w9 add w27,w27,w23 // d+=h add w23,w23,w28 // h+=Maj(a,b,c) ldr w28,[x30],#4 // *K++, w19 in next round add w0,w0,w6 add w23,w23,w17 // h+=Sigma0(a) add w0,w0,w5 ldr w5,[sp,#8] str w8,[sp,#4] ror w16,w27,#6 add w22,w22,w28 // h+=K[i] ror w7,w2,#7 and w17,w20,w27 ror w6,w15,#17 bic w28,w21,w27 ror w8,w23,#2 add w22,w22,w0 // h+=X[i] eor w16,w16,w27,ror#11 eor w7,w7,w2,ror#18 orr w17,w17,w28 // Ch(e,f,g) eor w28,w23,w24 // a^b, b^c in next round eor w16,w16,w27,ror#25 // Sigma1(e) eor w8,w8,w23,ror#13 add w22,w22,w17 // h+=Ch(e,f,g) and w19,w19,w28 // (b^c)&=(a^b) eor w6,w6,w15,ror#19 eor w7,w7,w2,lsr#3 // sigma0(X[i+1]) add w22,w22,w16 // h+=Sigma1(e) eor w19,w19,w24 // Maj(a,b,c) eor w17,w8,w23,ror#22 // Sigma0(a) eor w6,w6,w15,lsr#10 // sigma1(X[i+14]) add w1,w1,w10 add w26,w26,w22 // d+=h add w22,w22,w19 // h+=Maj(a,b,c) ldr w19,[x30],#4 // *K++, w28 in next round add w1,w1,w7 add w22,w22,w17 // h+=Sigma0(a) add w1,w1,w6 ldr w6,[sp,#12] str w9,[sp,#8] ror w16,w26,#6 add w21,w21,w19 // h+=K[i] ror w8,w3,#7 and w17,w27,w26 ror w7,w0,#17 bic w19,w20,w26 ror w9,w22,#2 add w21,w21,w1 // h+=X[i] eor w16,w16,w26,ror#11 eor w8,w8,w3,ror#18 orr w17,w17,w19 // Ch(e,f,g) eor w19,w22,w23 // a^b, b^c in next round eor w16,w16,w26,ror#25 // Sigma1(e) eor w9,w9,w22,ror#13 add w21,w21,w17 // h+=Ch(e,f,g) and w28,w28,w19 // (b^c)&=(a^b) eor w7,w7,w0,ror#19 eor w8,w8,w3,lsr#3 // sigma0(X[i+1]) add w21,w21,w16 // h+=Sigma1(e) eor w28,w28,w23 // Maj(a,b,c) eor w17,w9,w22,ror#22 // Sigma0(a) eor w7,w7,w0,lsr#10 // sigma1(X[i+14]) add w2,w2,w11 add w25,w25,w21 // d+=h add w21,w21,w28 // h+=Maj(a,b,c) ldr w28,[x30],#4 // *K++, w19 in next round add w2,w2,w8 add w21,w21,w17 // h+=Sigma0(a) add w2,w2,w7 ldr w7,[sp,#0] str w10,[sp,#12] ror w16,w25,#6 add w20,w20,w28 // h+=K[i] ror w9,w4,#7 and w17,w26,w25 ror w8,w1,#17 bic w28,w27,w25 ror w10,w21,#2 add w20,w20,w2 // h+=X[i] eor w16,w16,w25,ror#11 eor w9,w9,w4,ror#18 orr w17,w17,w28 // Ch(e,f,g) eor w28,w21,w22 // a^b, b^c in next round eor w16,w16,w25,ror#25 // Sigma1(e) eor w10,w10,w21,ror#13 add w20,w20,w17 // h+=Ch(e,f,g) and w19,w19,w28 // (b^c)&=(a^b) eor w8,w8,w1,ror#19 eor w9,w9,w4,lsr#3 // sigma0(X[i+1]) add w20,w20,w16 // h+=Sigma1(e) eor w19,w19,w22 // Maj(a,b,c) eor w17,w10,w21,ror#22 // Sigma0(a) eor w8,w8,w1,lsr#10 // sigma1(X[i+14]) add w3,w3,w12 add w24,w24,w20 // d+=h add w20,w20,w19 // h+=Maj(a,b,c) ldr w19,[x30],#4 // *K++, w28 in next round add w3,w3,w9 add w20,w20,w17 // h+=Sigma0(a) add w3,w3,w8 cbnz w19,.Loop_16_xx ldp x0,x2,[x29,#96] ldr x1,[x29,#112] sub x30,x30,#260 // rewind ldp w3,w4,[x0] ldp w5,w6,[x0,#2*4] add x1,x1,#14*4 // advance input pointer ldp w7,w8,[x0,#4*4] add w20,w20,w3 ldp w9,w10,[x0,#6*4] add w21,w21,w4 add w22,w22,w5 add w23,w23,w6 stp w20,w21,[x0] add w24,w24,w7 add w25,w25,w8 stp w22,w23,[x0,#2*4] add w26,w26,w9 add w27,w27,w10 cmp x1,x2 stp w24,w25,[x0,#4*4] stp w26,w27,[x0,#6*4] b.ne .Loop ldp x19,x20,[x29,#16] add sp,sp,#4*4 ldp x21,x22,[x29,#32] ldp x23,x24,[x29,#48] ldp x25,x26,[x29,#64] ldp x27,x28,[x29,#80] ldp x29,x30,[sp],#128 AARCH64_VALIDATE_LINK_REGISTER ret .size sha256_block_data_order_nohw,.-sha256_block_data_order_nohw .section .rodata .align 6 .type .LK256,%object .LK256: .long 0x428a2f98,0x71374491,0xb5c0fbcf,0xe9b5dba5 .long 0x3956c25b,0x59f111f1,0x923f82a4,0xab1c5ed5 .long 0xd807aa98,0x12835b01,0x243185be,0x550c7dc3 .long 0x72be5d74,0x80deb1fe,0x9bdc06a7,0xc19bf174 .long 0xe49b69c1,0xefbe4786,0x0fc19dc6,0x240ca1cc .long 0x2de92c6f,0x4a7484aa,0x5cb0a9dc,0x76f988da .long 0x983e5152,0xa831c66d,0xb00327c8,0xbf597fc7 .long 0xc6e00bf3,0xd5a79147,0x06ca6351,0x14292967 .long 0x27b70a85,0x2e1b2138,0x4d2c6dfc,0x53380d13 .long 0x650a7354,0x766a0abb,0x81c2c92e,0x92722c85 .long 0xa2bfe8a1,0xa81a664b,0xc24b8b70,0xc76c51a3 .long 0xd192e819,0xd6990624,0xf40e3585,0x106aa070 .long 0x19a4c116,0x1e376c08,0x2748774c,0x34b0bcb5 .long 0x391c0cb3,0x4ed8aa4a,0x5b9cca4f,0x682e6ff3 .long 0x748f82ee,0x78a5636f,0x84c87814,0x8cc70208 .long 0x90befffa,0xa4506ceb,0xbef9a3f7,0xc67178f2 .long 0 //terminator .size .LK256,.-.LK256 .byte 83,72,65,50,53,54,32,98,108,111,99,107,32,116,114,97,110,115,102,111,114,109,32,102,111,114,32,65,82,77,118,56,44,32,67,82,89,80,84,79,71,65,77,83,32,98,121,32,60,97,112,112,114,111,64,111,112,101,110,115,115,108,46,111,114,103,62,0 .align 2 .align 2 .text #ifndef __KERNEL__ .globl sha256_block_data_order_hw .hidden sha256_block_data_order_hw .type sha256_block_data_order_hw,%function .align 6 sha256_block_data_order_hw: // Armv8.3-A PAuth: even though x30 is pushed to stack it is not popped later. AARCH64_VALID_CALL_TARGET stp x29,x30,[sp,#-16]! add x29,sp,#0 ld1 {v0.4s,v1.4s},[x0] adrp x3,.LK256 add x3,x3,:lo12:.LK256 .Loop_hw: ld1 {v4.16b,v5.16b,v6.16b,v7.16b},[x1],#64 sub x2,x2,#1 ld1 {v16.4s},[x3],#16 rev32 v4.16b,v4.16b rev32 v5.16b,v5.16b rev32 v6.16b,v6.16b rev32 v7.16b,v7.16b orr v18.16b,v0.16b,v0.16b // offload orr v19.16b,v1.16b,v1.16b ld1 {v17.4s},[x3],#16 add v16.4s,v16.4s,v4.4s .inst 0x5e2828a4 //sha256su0 v4.16b,v5.16b orr v2.16b,v0.16b,v0.16b .inst 0x5e104020 //sha256h v0.16b,v1.16b,v16.4s .inst 0x5e105041 //sha256h2 v1.16b,v2.16b,v16.4s .inst 0x5e0760c4 //sha256su1 v4.16b,v6.16b,v7.16b ld1 {v16.4s},[x3],#16 add v17.4s,v17.4s,v5.4s .inst 0x5e2828c5 //sha256su0 v5.16b,v6.16b orr v2.16b,v0.16b,v0.16b .inst 0x5e114020 //sha256h v0.16b,v1.16b,v17.4s .inst 0x5e115041 //sha256h2 v1.16b,v2.16b,v17.4s .inst 0x5e0460e5 //sha256su1 v5.16b,v7.16b,v4.16b ld1 {v17.4s},[x3],#16 add v16.4s,v16.4s,v6.4s .inst 0x5e2828e6 //sha256su0 v6.16b,v7.16b orr v2.16b,v0.16b,v0.16b .inst 0x5e104020 //sha256h v0.16b,v1.16b,v16.4s .inst 0x5e105041 //sha256h2 v1.16b,v2.16b,v16.4s .inst 0x5e056086 //sha256su1 v6.16b,v4.16b,v5.16b ld1 {v16.4s},[x3],#16 add v17.4s,v17.4s,v7.4s .inst 0x5e282887 //sha256su0 v7.16b,v4.16b orr v2.16b,v0.16b,v0.16b .inst 0x5e114020 //sha256h v0.16b,v1.16b,v17.4s .inst 0x5e115041 //sha256h2 v1.16b,v2.16b,v17.4s .inst 0x5e0660a7 //sha256su1 v7.16b,v5.16b,v6.16b ld1 {v17.4s},[x3],#16 add v16.4s,v16.4s,v4.4s .inst 0x5e2828a4 //sha256su0 v4.16b,v5.16b orr v2.16b,v0.16b,v0.16b .inst 0x5e104020 //sha256h v0.16b,v1.16b,v16.4s .inst 0x5e105041 //sha256h2 v1.16b,v2.16b,v16.4s .inst 0x5e0760c4 //sha256su1 v4.16b,v6.16b,v7.16b ld1 {v16.4s},[x3],#16 add v17.4s,v17.4s,v5.4s .inst 0x5e2828c5 //sha256su0 v5.16b,v6.16b orr v2.16b,v0.16b,v0.16b .inst 0x5e114020 //sha256h v0.16b,v1.16b,v17.4s .inst 0x5e115041 //sha256h2 v1.16b,v2.16b,v17.4s .inst 0x5e0460e5 //sha256su1 v5.16b,v7.16b,v4.16b ld1 {v17.4s},[x3],#16 add v16.4s,v16.4s,v6.4s .inst 0x5e2828e6 //sha256su0 v6.16b,v7.16b orr v2.16b,v0.16b,v0.16b .inst 0x5e104020 //sha256h v0.16b,v1.16b,v16.4s .inst 0x5e105041 //sha256h2 v1.16b,v2.16b,v16.4s .inst 0x5e056086 //sha256su1 v6.16b,v4.16b,v5.16b ld1 {v16.4s},[x3],#16 add v17.4s,v17.4s,v7.4s .inst 0x5e282887 //sha256su0 v7.16b,v4.16b orr v2.16b,v0.16b,v0.16b .inst 0x5e114020 //sha256h v0.16b,v1.16b,v17.4s .inst 0x5e115041 //sha256h2 v1.16b,v2.16b,v17.4s .inst 0x5e0660a7 //sha256su1 v7.16b,v5.16b,v6.16b ld1 {v17.4s},[x3],#16 add v16.4s,v16.4s,v4.4s .inst 0x5e2828a4 //sha256su0 v4.16b,v5.16b orr v2.16b,v0.16b,v0.16b .inst 0x5e104020 //sha256h v0.16b,v1.16b,v16.4s .inst 0x5e105041 //sha256h2 v1.16b,v2.16b,v16.4s .inst 0x5e0760c4 //sha256su1 v4.16b,v6.16b,v7.16b ld1 {v16.4s},[x3],#16 add v17.4s,v17.4s,v5.4s .inst 0x5e2828c5 //sha256su0 v5.16b,v6.16b orr v2.16b,v0.16b,v0.16b .inst 0x5e114020 //sha256h v0.16b,v1.16b,v17.4s .inst 0x5e115041 //sha256h2 v1.16b,v2.16b,v17.4s .inst 0x5e0460e5 //sha256su1 v5.16b,v7.16b,v4.16b ld1 {v17.4s},[x3],#16 add v16.4s,v16.4s,v6.4s .inst 0x5e2828e6 //sha256su0 v6.16b,v7.16b orr v2.16b,v0.16b,v0.16b .inst 0x5e104020 //sha256h v0.16b,v1.16b,v16.4s .inst 0x5e105041 //sha256h2 v1.16b,v2.16b,v16.4s .inst 0x5e056086 //sha256su1 v6.16b,v4.16b,v5.16b ld1 {v16.4s},[x3],#16 add v17.4s,v17.4s,v7.4s .inst 0x5e282887 //sha256su0 v7.16b,v4.16b orr v2.16b,v0.16b,v0.16b .inst 0x5e114020 //sha256h v0.16b,v1.16b,v17.4s .inst 0x5e115041 //sha256h2 v1.16b,v2.16b,v17.4s .inst 0x5e0660a7 //sha256su1 v7.16b,v5.16b,v6.16b ld1 {v17.4s},[x3],#16 add v16.4s,v16.4s,v4.4s orr v2.16b,v0.16b,v0.16b .inst 0x5e104020 //sha256h v0.16b,v1.16b,v16.4s .inst 0x5e105041 //sha256h2 v1.16b,v2.16b,v16.4s ld1 {v16.4s},[x3],#16 add v17.4s,v17.4s,v5.4s orr v2.16b,v0.16b,v0.16b .inst 0x5e114020 //sha256h v0.16b,v1.16b,v17.4s .inst 0x5e115041 //sha256h2 v1.16b,v2.16b,v17.4s ld1 {v17.4s},[x3] add v16.4s,v16.4s,v6.4s sub x3,x3,#64*4-16 // rewind orr v2.16b,v0.16b,v0.16b .inst 0x5e104020 //sha256h v0.16b,v1.16b,v16.4s .inst 0x5e105041 //sha256h2 v1.16b,v2.16b,v16.4s add v17.4s,v17.4s,v7.4s orr v2.16b,v0.16b,v0.16b .inst 0x5e114020 //sha256h v0.16b,v1.16b,v17.4s .inst 0x5e115041 //sha256h2 v1.16b,v2.16b,v17.4s add v0.4s,v0.4s,v18.4s add v1.4s,v1.4s,v19.4s cbnz x2,.Loop_hw st1 {v0.4s,v1.4s},[x0] ldr x29,[sp],#16 ret .size sha256_block_data_order_hw,.-sha256_block_data_order_hw #endif #endif // !OPENSSL_NO_ASM && defined(OPENSSL_AARCH64) && defined(__ELF__)
Vtyeshe/geoai-backend
70,675
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/ring-0.17.13/pregenerated/sha256-x86_64-elf.S
// This file is generated from a similarly-named Perl script in the BoringSSL // source tree. Do not edit by hand. #include <ring-core/asm_base.h> #if !defined(OPENSSL_NO_ASM) && defined(OPENSSL_X86_64) && defined(__ELF__) .text .globl sha256_block_data_order_nohw .hidden sha256_block_data_order_nohw .type sha256_block_data_order_nohw,@function .align 16 sha256_block_data_order_nohw: .cfi_startproc _CET_ENDBR movq %rsp,%rax .cfi_def_cfa_register %rax pushq %rbx .cfi_offset %rbx,-16 pushq %rbp .cfi_offset %rbp,-24 pushq %r12 .cfi_offset %r12,-32 pushq %r13 .cfi_offset %r13,-40 pushq %r14 .cfi_offset %r14,-48 pushq %r15 .cfi_offset %r15,-56 shlq $4,%rdx subq $64+32,%rsp leaq (%rsi,%rdx,4),%rdx andq $-64,%rsp movq %rdi,64+0(%rsp) movq %rsi,64+8(%rsp) movq %rdx,64+16(%rsp) movq %rax,88(%rsp) .cfi_escape 0x0f,0x06,0x77,0xd8,0x00,0x06,0x23,0x08 .Lprologue: movl 0(%rdi),%eax movl 4(%rdi),%ebx movl 8(%rdi),%ecx movl 12(%rdi),%edx movl 16(%rdi),%r8d movl 20(%rdi),%r9d movl 24(%rdi),%r10d movl 28(%rdi),%r11d jmp .Lloop .align 16 .Lloop: movl %ebx,%edi leaq K256(%rip),%rbp xorl %ecx,%edi movl 0(%rsi),%r12d movl %r8d,%r13d movl %eax,%r14d bswapl %r12d rorl $14,%r13d movl %r9d,%r15d xorl %r8d,%r13d rorl $9,%r14d xorl %r10d,%r15d movl %r12d,0(%rsp) xorl %eax,%r14d andl %r8d,%r15d rorl $5,%r13d addl %r11d,%r12d xorl %r10d,%r15d rorl $11,%r14d xorl %r8d,%r13d addl %r15d,%r12d movl %eax,%r15d addl (%rbp),%r12d xorl %eax,%r14d xorl %ebx,%r15d rorl $6,%r13d movl %ebx,%r11d andl %r15d,%edi rorl $2,%r14d addl %r13d,%r12d xorl %edi,%r11d addl %r12d,%edx addl %r12d,%r11d leaq 4(%rbp),%rbp addl %r14d,%r11d movl 4(%rsi),%r12d movl %edx,%r13d movl %r11d,%r14d bswapl %r12d rorl $14,%r13d movl %r8d,%edi xorl %edx,%r13d rorl $9,%r14d xorl %r9d,%edi movl %r12d,4(%rsp) xorl %r11d,%r14d andl %edx,%edi rorl $5,%r13d addl %r10d,%r12d xorl %r9d,%edi rorl $11,%r14d xorl %edx,%r13d addl %edi,%r12d movl %r11d,%edi addl (%rbp),%r12d xorl %r11d,%r14d xorl %eax,%edi rorl $6,%r13d movl %eax,%r10d andl %edi,%r15d rorl $2,%r14d addl %r13d,%r12d xorl %r15d,%r10d addl %r12d,%ecx addl %r12d,%r10d leaq 4(%rbp),%rbp addl %r14d,%r10d movl 8(%rsi),%r12d movl %ecx,%r13d movl %r10d,%r14d bswapl %r12d rorl $14,%r13d movl %edx,%r15d xorl %ecx,%r13d rorl $9,%r14d xorl %r8d,%r15d movl %r12d,8(%rsp) xorl %r10d,%r14d andl %ecx,%r15d rorl $5,%r13d addl %r9d,%r12d xorl %r8d,%r15d rorl $11,%r14d xorl %ecx,%r13d addl %r15d,%r12d movl %r10d,%r15d addl (%rbp),%r12d xorl %r10d,%r14d xorl %r11d,%r15d rorl $6,%r13d movl %r11d,%r9d andl %r15d,%edi rorl $2,%r14d addl %r13d,%r12d xorl %edi,%r9d addl %r12d,%ebx addl %r12d,%r9d leaq 4(%rbp),%rbp addl %r14d,%r9d movl 12(%rsi),%r12d movl %ebx,%r13d movl %r9d,%r14d bswapl %r12d rorl $14,%r13d movl %ecx,%edi xorl %ebx,%r13d rorl $9,%r14d xorl %edx,%edi movl %r12d,12(%rsp) xorl %r9d,%r14d andl %ebx,%edi rorl $5,%r13d addl %r8d,%r12d xorl %edx,%edi rorl $11,%r14d xorl %ebx,%r13d addl %edi,%r12d movl %r9d,%edi addl (%rbp),%r12d xorl %r9d,%r14d xorl %r10d,%edi rorl $6,%r13d movl %r10d,%r8d andl %edi,%r15d rorl $2,%r14d addl %r13d,%r12d xorl %r15d,%r8d addl %r12d,%eax addl %r12d,%r8d leaq 20(%rbp),%rbp addl %r14d,%r8d movl 16(%rsi),%r12d movl %eax,%r13d movl %r8d,%r14d bswapl %r12d rorl $14,%r13d movl %ebx,%r15d xorl %eax,%r13d rorl $9,%r14d xorl %ecx,%r15d movl %r12d,16(%rsp) xorl %r8d,%r14d andl %eax,%r15d rorl $5,%r13d addl %edx,%r12d xorl %ecx,%r15d rorl $11,%r14d xorl %eax,%r13d addl %r15d,%r12d movl %r8d,%r15d addl (%rbp),%r12d xorl %r8d,%r14d xorl %r9d,%r15d rorl $6,%r13d movl %r9d,%edx andl %r15d,%edi rorl $2,%r14d addl %r13d,%r12d xorl %edi,%edx addl %r12d,%r11d addl %r12d,%edx leaq 4(%rbp),%rbp addl %r14d,%edx movl 20(%rsi),%r12d movl %r11d,%r13d movl %edx,%r14d bswapl %r12d rorl $14,%r13d movl %eax,%edi xorl %r11d,%r13d rorl $9,%r14d xorl %ebx,%edi movl %r12d,20(%rsp) xorl %edx,%r14d andl %r11d,%edi rorl $5,%r13d addl %ecx,%r12d xorl %ebx,%edi rorl $11,%r14d xorl %r11d,%r13d addl %edi,%r12d movl %edx,%edi addl (%rbp),%r12d xorl %edx,%r14d xorl %r8d,%edi rorl $6,%r13d movl %r8d,%ecx andl %edi,%r15d rorl $2,%r14d addl %r13d,%r12d xorl %r15d,%ecx addl %r12d,%r10d addl %r12d,%ecx leaq 4(%rbp),%rbp addl %r14d,%ecx movl 24(%rsi),%r12d movl %r10d,%r13d movl %ecx,%r14d bswapl %r12d rorl $14,%r13d movl %r11d,%r15d xorl %r10d,%r13d rorl $9,%r14d xorl %eax,%r15d movl %r12d,24(%rsp) xorl %ecx,%r14d andl %r10d,%r15d rorl $5,%r13d addl %ebx,%r12d xorl %eax,%r15d rorl $11,%r14d xorl %r10d,%r13d addl %r15d,%r12d movl %ecx,%r15d addl (%rbp),%r12d xorl %ecx,%r14d xorl %edx,%r15d rorl $6,%r13d movl %edx,%ebx andl %r15d,%edi rorl $2,%r14d addl %r13d,%r12d xorl %edi,%ebx addl %r12d,%r9d addl %r12d,%ebx leaq 4(%rbp),%rbp addl %r14d,%ebx movl 28(%rsi),%r12d movl %r9d,%r13d movl %ebx,%r14d bswapl %r12d rorl $14,%r13d movl %r10d,%edi xorl %r9d,%r13d rorl $9,%r14d xorl %r11d,%edi movl %r12d,28(%rsp) xorl %ebx,%r14d andl %r9d,%edi rorl $5,%r13d addl %eax,%r12d xorl %r11d,%edi rorl $11,%r14d xorl %r9d,%r13d addl %edi,%r12d movl %ebx,%edi addl (%rbp),%r12d xorl %ebx,%r14d xorl %ecx,%edi rorl $6,%r13d movl %ecx,%eax andl %edi,%r15d rorl $2,%r14d addl %r13d,%r12d xorl %r15d,%eax addl %r12d,%r8d addl %r12d,%eax leaq 20(%rbp),%rbp addl %r14d,%eax movl 32(%rsi),%r12d movl %r8d,%r13d movl %eax,%r14d bswapl %r12d rorl $14,%r13d movl %r9d,%r15d xorl %r8d,%r13d rorl $9,%r14d xorl %r10d,%r15d movl %r12d,32(%rsp) xorl %eax,%r14d andl %r8d,%r15d rorl $5,%r13d addl %r11d,%r12d xorl %r10d,%r15d rorl $11,%r14d xorl %r8d,%r13d addl %r15d,%r12d movl %eax,%r15d addl (%rbp),%r12d xorl %eax,%r14d xorl %ebx,%r15d rorl $6,%r13d movl %ebx,%r11d andl %r15d,%edi rorl $2,%r14d addl %r13d,%r12d xorl %edi,%r11d addl %r12d,%edx addl %r12d,%r11d leaq 4(%rbp),%rbp addl %r14d,%r11d movl 36(%rsi),%r12d movl %edx,%r13d movl %r11d,%r14d bswapl %r12d rorl $14,%r13d movl %r8d,%edi xorl %edx,%r13d rorl $9,%r14d xorl %r9d,%edi movl %r12d,36(%rsp) xorl %r11d,%r14d andl %edx,%edi rorl $5,%r13d addl %r10d,%r12d xorl %r9d,%edi rorl $11,%r14d xorl %edx,%r13d addl %edi,%r12d movl %r11d,%edi addl (%rbp),%r12d xorl %r11d,%r14d xorl %eax,%edi rorl $6,%r13d movl %eax,%r10d andl %edi,%r15d rorl $2,%r14d addl %r13d,%r12d xorl %r15d,%r10d addl %r12d,%ecx addl %r12d,%r10d leaq 4(%rbp),%rbp addl %r14d,%r10d movl 40(%rsi),%r12d movl %ecx,%r13d movl %r10d,%r14d bswapl %r12d rorl $14,%r13d movl %edx,%r15d xorl %ecx,%r13d rorl $9,%r14d xorl %r8d,%r15d movl %r12d,40(%rsp) xorl %r10d,%r14d andl %ecx,%r15d rorl $5,%r13d addl %r9d,%r12d xorl %r8d,%r15d rorl $11,%r14d xorl %ecx,%r13d addl %r15d,%r12d movl %r10d,%r15d addl (%rbp),%r12d xorl %r10d,%r14d xorl %r11d,%r15d rorl $6,%r13d movl %r11d,%r9d andl %r15d,%edi rorl $2,%r14d addl %r13d,%r12d xorl %edi,%r9d addl %r12d,%ebx addl %r12d,%r9d leaq 4(%rbp),%rbp addl %r14d,%r9d movl 44(%rsi),%r12d movl %ebx,%r13d movl %r9d,%r14d bswapl %r12d rorl $14,%r13d movl %ecx,%edi xorl %ebx,%r13d rorl $9,%r14d xorl %edx,%edi movl %r12d,44(%rsp) xorl %r9d,%r14d andl %ebx,%edi rorl $5,%r13d addl %r8d,%r12d xorl %edx,%edi rorl $11,%r14d xorl %ebx,%r13d addl %edi,%r12d movl %r9d,%edi addl (%rbp),%r12d xorl %r9d,%r14d xorl %r10d,%edi rorl $6,%r13d movl %r10d,%r8d andl %edi,%r15d rorl $2,%r14d addl %r13d,%r12d xorl %r15d,%r8d addl %r12d,%eax addl %r12d,%r8d leaq 20(%rbp),%rbp addl %r14d,%r8d movl 48(%rsi),%r12d movl %eax,%r13d movl %r8d,%r14d bswapl %r12d rorl $14,%r13d movl %ebx,%r15d xorl %eax,%r13d rorl $9,%r14d xorl %ecx,%r15d movl %r12d,48(%rsp) xorl %r8d,%r14d andl %eax,%r15d rorl $5,%r13d addl %edx,%r12d xorl %ecx,%r15d rorl $11,%r14d xorl %eax,%r13d addl %r15d,%r12d movl %r8d,%r15d addl (%rbp),%r12d xorl %r8d,%r14d xorl %r9d,%r15d rorl $6,%r13d movl %r9d,%edx andl %r15d,%edi rorl $2,%r14d addl %r13d,%r12d xorl %edi,%edx addl %r12d,%r11d addl %r12d,%edx leaq 4(%rbp),%rbp addl %r14d,%edx movl 52(%rsi),%r12d movl %r11d,%r13d movl %edx,%r14d bswapl %r12d rorl $14,%r13d movl %eax,%edi xorl %r11d,%r13d rorl $9,%r14d xorl %ebx,%edi movl %r12d,52(%rsp) xorl %edx,%r14d andl %r11d,%edi rorl $5,%r13d addl %ecx,%r12d xorl %ebx,%edi rorl $11,%r14d xorl %r11d,%r13d addl %edi,%r12d movl %edx,%edi addl (%rbp),%r12d xorl %edx,%r14d xorl %r8d,%edi rorl $6,%r13d movl %r8d,%ecx andl %edi,%r15d rorl $2,%r14d addl %r13d,%r12d xorl %r15d,%ecx addl %r12d,%r10d addl %r12d,%ecx leaq 4(%rbp),%rbp addl %r14d,%ecx movl 56(%rsi),%r12d movl %r10d,%r13d movl %ecx,%r14d bswapl %r12d rorl $14,%r13d movl %r11d,%r15d xorl %r10d,%r13d rorl $9,%r14d xorl %eax,%r15d movl %r12d,56(%rsp) xorl %ecx,%r14d andl %r10d,%r15d rorl $5,%r13d addl %ebx,%r12d xorl %eax,%r15d rorl $11,%r14d xorl %r10d,%r13d addl %r15d,%r12d movl %ecx,%r15d addl (%rbp),%r12d xorl %ecx,%r14d xorl %edx,%r15d rorl $6,%r13d movl %edx,%ebx andl %r15d,%edi rorl $2,%r14d addl %r13d,%r12d xorl %edi,%ebx addl %r12d,%r9d addl %r12d,%ebx leaq 4(%rbp),%rbp addl %r14d,%ebx movl 60(%rsi),%r12d movl %r9d,%r13d movl %ebx,%r14d bswapl %r12d rorl $14,%r13d movl %r10d,%edi xorl %r9d,%r13d rorl $9,%r14d xorl %r11d,%edi movl %r12d,60(%rsp) xorl %ebx,%r14d andl %r9d,%edi rorl $5,%r13d addl %eax,%r12d xorl %r11d,%edi rorl $11,%r14d xorl %r9d,%r13d addl %edi,%r12d movl %ebx,%edi addl (%rbp),%r12d xorl %ebx,%r14d xorl %ecx,%edi rorl $6,%r13d movl %ecx,%eax andl %edi,%r15d rorl $2,%r14d addl %r13d,%r12d xorl %r15d,%eax addl %r12d,%r8d addl %r12d,%eax leaq 20(%rbp),%rbp jmp .Lrounds_16_xx .align 16 .Lrounds_16_xx: movl 4(%rsp),%r13d movl 56(%rsp),%r15d movl %r13d,%r12d rorl $11,%r13d addl %r14d,%eax movl %r15d,%r14d rorl $2,%r15d xorl %r12d,%r13d shrl $3,%r12d rorl $7,%r13d xorl %r14d,%r15d shrl $10,%r14d rorl $17,%r15d xorl %r13d,%r12d xorl %r14d,%r15d addl 36(%rsp),%r12d addl 0(%rsp),%r12d movl %r8d,%r13d addl %r15d,%r12d movl %eax,%r14d rorl $14,%r13d movl %r9d,%r15d xorl %r8d,%r13d rorl $9,%r14d xorl %r10d,%r15d movl %r12d,0(%rsp) xorl %eax,%r14d andl %r8d,%r15d rorl $5,%r13d addl %r11d,%r12d xorl %r10d,%r15d rorl $11,%r14d xorl %r8d,%r13d addl %r15d,%r12d movl %eax,%r15d addl (%rbp),%r12d xorl %eax,%r14d xorl %ebx,%r15d rorl $6,%r13d movl %ebx,%r11d andl %r15d,%edi rorl $2,%r14d addl %r13d,%r12d xorl %edi,%r11d addl %r12d,%edx addl %r12d,%r11d leaq 4(%rbp),%rbp movl 8(%rsp),%r13d movl 60(%rsp),%edi movl %r13d,%r12d rorl $11,%r13d addl %r14d,%r11d movl %edi,%r14d rorl $2,%edi xorl %r12d,%r13d shrl $3,%r12d rorl $7,%r13d xorl %r14d,%edi shrl $10,%r14d rorl $17,%edi xorl %r13d,%r12d xorl %r14d,%edi addl 40(%rsp),%r12d addl 4(%rsp),%r12d movl %edx,%r13d addl %edi,%r12d movl %r11d,%r14d rorl $14,%r13d movl %r8d,%edi xorl %edx,%r13d rorl $9,%r14d xorl %r9d,%edi movl %r12d,4(%rsp) xorl %r11d,%r14d andl %edx,%edi rorl $5,%r13d addl %r10d,%r12d xorl %r9d,%edi rorl $11,%r14d xorl %edx,%r13d addl %edi,%r12d movl %r11d,%edi addl (%rbp),%r12d xorl %r11d,%r14d xorl %eax,%edi rorl $6,%r13d movl %eax,%r10d andl %edi,%r15d rorl $2,%r14d addl %r13d,%r12d xorl %r15d,%r10d addl %r12d,%ecx addl %r12d,%r10d leaq 4(%rbp),%rbp movl 12(%rsp),%r13d movl 0(%rsp),%r15d movl %r13d,%r12d rorl $11,%r13d addl %r14d,%r10d movl %r15d,%r14d rorl $2,%r15d xorl %r12d,%r13d shrl $3,%r12d rorl $7,%r13d xorl %r14d,%r15d shrl $10,%r14d rorl $17,%r15d xorl %r13d,%r12d xorl %r14d,%r15d addl 44(%rsp),%r12d addl 8(%rsp),%r12d movl %ecx,%r13d addl %r15d,%r12d movl %r10d,%r14d rorl $14,%r13d movl %edx,%r15d xorl %ecx,%r13d rorl $9,%r14d xorl %r8d,%r15d movl %r12d,8(%rsp) xorl %r10d,%r14d andl %ecx,%r15d rorl $5,%r13d addl %r9d,%r12d xorl %r8d,%r15d rorl $11,%r14d xorl %ecx,%r13d addl %r15d,%r12d movl %r10d,%r15d addl (%rbp),%r12d xorl %r10d,%r14d xorl %r11d,%r15d rorl $6,%r13d movl %r11d,%r9d andl %r15d,%edi rorl $2,%r14d addl %r13d,%r12d xorl %edi,%r9d addl %r12d,%ebx addl %r12d,%r9d leaq 4(%rbp),%rbp movl 16(%rsp),%r13d movl 4(%rsp),%edi movl %r13d,%r12d rorl $11,%r13d addl %r14d,%r9d movl %edi,%r14d rorl $2,%edi xorl %r12d,%r13d shrl $3,%r12d rorl $7,%r13d xorl %r14d,%edi shrl $10,%r14d rorl $17,%edi xorl %r13d,%r12d xorl %r14d,%edi addl 48(%rsp),%r12d addl 12(%rsp),%r12d movl %ebx,%r13d addl %edi,%r12d movl %r9d,%r14d rorl $14,%r13d movl %ecx,%edi xorl %ebx,%r13d rorl $9,%r14d xorl %edx,%edi movl %r12d,12(%rsp) xorl %r9d,%r14d andl %ebx,%edi rorl $5,%r13d addl %r8d,%r12d xorl %edx,%edi rorl $11,%r14d xorl %ebx,%r13d addl %edi,%r12d movl %r9d,%edi addl (%rbp),%r12d xorl %r9d,%r14d xorl %r10d,%edi rorl $6,%r13d movl %r10d,%r8d andl %edi,%r15d rorl $2,%r14d addl %r13d,%r12d xorl %r15d,%r8d addl %r12d,%eax addl %r12d,%r8d leaq 20(%rbp),%rbp movl 20(%rsp),%r13d movl 8(%rsp),%r15d movl %r13d,%r12d rorl $11,%r13d addl %r14d,%r8d movl %r15d,%r14d rorl $2,%r15d xorl %r12d,%r13d shrl $3,%r12d rorl $7,%r13d xorl %r14d,%r15d shrl $10,%r14d rorl $17,%r15d xorl %r13d,%r12d xorl %r14d,%r15d addl 52(%rsp),%r12d addl 16(%rsp),%r12d movl %eax,%r13d addl %r15d,%r12d movl %r8d,%r14d rorl $14,%r13d movl %ebx,%r15d xorl %eax,%r13d rorl $9,%r14d xorl %ecx,%r15d movl %r12d,16(%rsp) xorl %r8d,%r14d andl %eax,%r15d rorl $5,%r13d addl %edx,%r12d xorl %ecx,%r15d rorl $11,%r14d xorl %eax,%r13d addl %r15d,%r12d movl %r8d,%r15d addl (%rbp),%r12d xorl %r8d,%r14d xorl %r9d,%r15d rorl $6,%r13d movl %r9d,%edx andl %r15d,%edi rorl $2,%r14d addl %r13d,%r12d xorl %edi,%edx addl %r12d,%r11d addl %r12d,%edx leaq 4(%rbp),%rbp movl 24(%rsp),%r13d movl 12(%rsp),%edi movl %r13d,%r12d rorl $11,%r13d addl %r14d,%edx movl %edi,%r14d rorl $2,%edi xorl %r12d,%r13d shrl $3,%r12d rorl $7,%r13d xorl %r14d,%edi shrl $10,%r14d rorl $17,%edi xorl %r13d,%r12d xorl %r14d,%edi addl 56(%rsp),%r12d addl 20(%rsp),%r12d movl %r11d,%r13d addl %edi,%r12d movl %edx,%r14d rorl $14,%r13d movl %eax,%edi xorl %r11d,%r13d rorl $9,%r14d xorl %ebx,%edi movl %r12d,20(%rsp) xorl %edx,%r14d andl %r11d,%edi rorl $5,%r13d addl %ecx,%r12d xorl %ebx,%edi rorl $11,%r14d xorl %r11d,%r13d addl %edi,%r12d movl %edx,%edi addl (%rbp),%r12d xorl %edx,%r14d xorl %r8d,%edi rorl $6,%r13d movl %r8d,%ecx andl %edi,%r15d rorl $2,%r14d addl %r13d,%r12d xorl %r15d,%ecx addl %r12d,%r10d addl %r12d,%ecx leaq 4(%rbp),%rbp movl 28(%rsp),%r13d movl 16(%rsp),%r15d movl %r13d,%r12d rorl $11,%r13d addl %r14d,%ecx movl %r15d,%r14d rorl $2,%r15d xorl %r12d,%r13d shrl $3,%r12d rorl $7,%r13d xorl %r14d,%r15d shrl $10,%r14d rorl $17,%r15d xorl %r13d,%r12d xorl %r14d,%r15d addl 60(%rsp),%r12d addl 24(%rsp),%r12d movl %r10d,%r13d addl %r15d,%r12d movl %ecx,%r14d rorl $14,%r13d movl %r11d,%r15d xorl %r10d,%r13d rorl $9,%r14d xorl %eax,%r15d movl %r12d,24(%rsp) xorl %ecx,%r14d andl %r10d,%r15d rorl $5,%r13d addl %ebx,%r12d xorl %eax,%r15d rorl $11,%r14d xorl %r10d,%r13d addl %r15d,%r12d movl %ecx,%r15d addl (%rbp),%r12d xorl %ecx,%r14d xorl %edx,%r15d rorl $6,%r13d movl %edx,%ebx andl %r15d,%edi rorl $2,%r14d addl %r13d,%r12d xorl %edi,%ebx addl %r12d,%r9d addl %r12d,%ebx leaq 4(%rbp),%rbp movl 32(%rsp),%r13d movl 20(%rsp),%edi movl %r13d,%r12d rorl $11,%r13d addl %r14d,%ebx movl %edi,%r14d rorl $2,%edi xorl %r12d,%r13d shrl $3,%r12d rorl $7,%r13d xorl %r14d,%edi shrl $10,%r14d rorl $17,%edi xorl %r13d,%r12d xorl %r14d,%edi addl 0(%rsp),%r12d addl 28(%rsp),%r12d movl %r9d,%r13d addl %edi,%r12d movl %ebx,%r14d rorl $14,%r13d movl %r10d,%edi xorl %r9d,%r13d rorl $9,%r14d xorl %r11d,%edi movl %r12d,28(%rsp) xorl %ebx,%r14d andl %r9d,%edi rorl $5,%r13d addl %eax,%r12d xorl %r11d,%edi rorl $11,%r14d xorl %r9d,%r13d addl %edi,%r12d movl %ebx,%edi addl (%rbp),%r12d xorl %ebx,%r14d xorl %ecx,%edi rorl $6,%r13d movl %ecx,%eax andl %edi,%r15d rorl $2,%r14d addl %r13d,%r12d xorl %r15d,%eax addl %r12d,%r8d addl %r12d,%eax leaq 20(%rbp),%rbp movl 36(%rsp),%r13d movl 24(%rsp),%r15d movl %r13d,%r12d rorl $11,%r13d addl %r14d,%eax movl %r15d,%r14d rorl $2,%r15d xorl %r12d,%r13d shrl $3,%r12d rorl $7,%r13d xorl %r14d,%r15d shrl $10,%r14d rorl $17,%r15d xorl %r13d,%r12d xorl %r14d,%r15d addl 4(%rsp),%r12d addl 32(%rsp),%r12d movl %r8d,%r13d addl %r15d,%r12d movl %eax,%r14d rorl $14,%r13d movl %r9d,%r15d xorl %r8d,%r13d rorl $9,%r14d xorl %r10d,%r15d movl %r12d,32(%rsp) xorl %eax,%r14d andl %r8d,%r15d rorl $5,%r13d addl %r11d,%r12d xorl %r10d,%r15d rorl $11,%r14d xorl %r8d,%r13d addl %r15d,%r12d movl %eax,%r15d addl (%rbp),%r12d xorl %eax,%r14d xorl %ebx,%r15d rorl $6,%r13d movl %ebx,%r11d andl %r15d,%edi rorl $2,%r14d addl %r13d,%r12d xorl %edi,%r11d addl %r12d,%edx addl %r12d,%r11d leaq 4(%rbp),%rbp movl 40(%rsp),%r13d movl 28(%rsp),%edi movl %r13d,%r12d rorl $11,%r13d addl %r14d,%r11d movl %edi,%r14d rorl $2,%edi xorl %r12d,%r13d shrl $3,%r12d rorl $7,%r13d xorl %r14d,%edi shrl $10,%r14d rorl $17,%edi xorl %r13d,%r12d xorl %r14d,%edi addl 8(%rsp),%r12d addl 36(%rsp),%r12d movl %edx,%r13d addl %edi,%r12d movl %r11d,%r14d rorl $14,%r13d movl %r8d,%edi xorl %edx,%r13d rorl $9,%r14d xorl %r9d,%edi movl %r12d,36(%rsp) xorl %r11d,%r14d andl %edx,%edi rorl $5,%r13d addl %r10d,%r12d xorl %r9d,%edi rorl $11,%r14d xorl %edx,%r13d addl %edi,%r12d movl %r11d,%edi addl (%rbp),%r12d xorl %r11d,%r14d xorl %eax,%edi rorl $6,%r13d movl %eax,%r10d andl %edi,%r15d rorl $2,%r14d addl %r13d,%r12d xorl %r15d,%r10d addl %r12d,%ecx addl %r12d,%r10d leaq 4(%rbp),%rbp movl 44(%rsp),%r13d movl 32(%rsp),%r15d movl %r13d,%r12d rorl $11,%r13d addl %r14d,%r10d movl %r15d,%r14d rorl $2,%r15d xorl %r12d,%r13d shrl $3,%r12d rorl $7,%r13d xorl %r14d,%r15d shrl $10,%r14d rorl $17,%r15d xorl %r13d,%r12d xorl %r14d,%r15d addl 12(%rsp),%r12d addl 40(%rsp),%r12d movl %ecx,%r13d addl %r15d,%r12d movl %r10d,%r14d rorl $14,%r13d movl %edx,%r15d xorl %ecx,%r13d rorl $9,%r14d xorl %r8d,%r15d movl %r12d,40(%rsp) xorl %r10d,%r14d andl %ecx,%r15d rorl $5,%r13d addl %r9d,%r12d xorl %r8d,%r15d rorl $11,%r14d xorl %ecx,%r13d addl %r15d,%r12d movl %r10d,%r15d addl (%rbp),%r12d xorl %r10d,%r14d xorl %r11d,%r15d rorl $6,%r13d movl %r11d,%r9d andl %r15d,%edi rorl $2,%r14d addl %r13d,%r12d xorl %edi,%r9d addl %r12d,%ebx addl %r12d,%r9d leaq 4(%rbp),%rbp movl 48(%rsp),%r13d movl 36(%rsp),%edi movl %r13d,%r12d rorl $11,%r13d addl %r14d,%r9d movl %edi,%r14d rorl $2,%edi xorl %r12d,%r13d shrl $3,%r12d rorl $7,%r13d xorl %r14d,%edi shrl $10,%r14d rorl $17,%edi xorl %r13d,%r12d xorl %r14d,%edi addl 16(%rsp),%r12d addl 44(%rsp),%r12d movl %ebx,%r13d addl %edi,%r12d movl %r9d,%r14d rorl $14,%r13d movl %ecx,%edi xorl %ebx,%r13d rorl $9,%r14d xorl %edx,%edi movl %r12d,44(%rsp) xorl %r9d,%r14d andl %ebx,%edi rorl $5,%r13d addl %r8d,%r12d xorl %edx,%edi rorl $11,%r14d xorl %ebx,%r13d addl %edi,%r12d movl %r9d,%edi addl (%rbp),%r12d xorl %r9d,%r14d xorl %r10d,%edi rorl $6,%r13d movl %r10d,%r8d andl %edi,%r15d rorl $2,%r14d addl %r13d,%r12d xorl %r15d,%r8d addl %r12d,%eax addl %r12d,%r8d leaq 20(%rbp),%rbp movl 52(%rsp),%r13d movl 40(%rsp),%r15d movl %r13d,%r12d rorl $11,%r13d addl %r14d,%r8d movl %r15d,%r14d rorl $2,%r15d xorl %r12d,%r13d shrl $3,%r12d rorl $7,%r13d xorl %r14d,%r15d shrl $10,%r14d rorl $17,%r15d xorl %r13d,%r12d xorl %r14d,%r15d addl 20(%rsp),%r12d addl 48(%rsp),%r12d movl %eax,%r13d addl %r15d,%r12d movl %r8d,%r14d rorl $14,%r13d movl %ebx,%r15d xorl %eax,%r13d rorl $9,%r14d xorl %ecx,%r15d movl %r12d,48(%rsp) xorl %r8d,%r14d andl %eax,%r15d rorl $5,%r13d addl %edx,%r12d xorl %ecx,%r15d rorl $11,%r14d xorl %eax,%r13d addl %r15d,%r12d movl %r8d,%r15d addl (%rbp),%r12d xorl %r8d,%r14d xorl %r9d,%r15d rorl $6,%r13d movl %r9d,%edx andl %r15d,%edi rorl $2,%r14d addl %r13d,%r12d xorl %edi,%edx addl %r12d,%r11d addl %r12d,%edx leaq 4(%rbp),%rbp movl 56(%rsp),%r13d movl 44(%rsp),%edi movl %r13d,%r12d rorl $11,%r13d addl %r14d,%edx movl %edi,%r14d rorl $2,%edi xorl %r12d,%r13d shrl $3,%r12d rorl $7,%r13d xorl %r14d,%edi shrl $10,%r14d rorl $17,%edi xorl %r13d,%r12d xorl %r14d,%edi addl 24(%rsp),%r12d addl 52(%rsp),%r12d movl %r11d,%r13d addl %edi,%r12d movl %edx,%r14d rorl $14,%r13d movl %eax,%edi xorl %r11d,%r13d rorl $9,%r14d xorl %ebx,%edi movl %r12d,52(%rsp) xorl %edx,%r14d andl %r11d,%edi rorl $5,%r13d addl %ecx,%r12d xorl %ebx,%edi rorl $11,%r14d xorl %r11d,%r13d addl %edi,%r12d movl %edx,%edi addl (%rbp),%r12d xorl %edx,%r14d xorl %r8d,%edi rorl $6,%r13d movl %r8d,%ecx andl %edi,%r15d rorl $2,%r14d addl %r13d,%r12d xorl %r15d,%ecx addl %r12d,%r10d addl %r12d,%ecx leaq 4(%rbp),%rbp movl 60(%rsp),%r13d movl 48(%rsp),%r15d movl %r13d,%r12d rorl $11,%r13d addl %r14d,%ecx movl %r15d,%r14d rorl $2,%r15d xorl %r12d,%r13d shrl $3,%r12d rorl $7,%r13d xorl %r14d,%r15d shrl $10,%r14d rorl $17,%r15d xorl %r13d,%r12d xorl %r14d,%r15d addl 28(%rsp),%r12d addl 56(%rsp),%r12d movl %r10d,%r13d addl %r15d,%r12d movl %ecx,%r14d rorl $14,%r13d movl %r11d,%r15d xorl %r10d,%r13d rorl $9,%r14d xorl %eax,%r15d movl %r12d,56(%rsp) xorl %ecx,%r14d andl %r10d,%r15d rorl $5,%r13d addl %ebx,%r12d xorl %eax,%r15d rorl $11,%r14d xorl %r10d,%r13d addl %r15d,%r12d movl %ecx,%r15d addl (%rbp),%r12d xorl %ecx,%r14d xorl %edx,%r15d rorl $6,%r13d movl %edx,%ebx andl %r15d,%edi rorl $2,%r14d addl %r13d,%r12d xorl %edi,%ebx addl %r12d,%r9d addl %r12d,%ebx leaq 4(%rbp),%rbp movl 0(%rsp),%r13d movl 52(%rsp),%edi movl %r13d,%r12d rorl $11,%r13d addl %r14d,%ebx movl %edi,%r14d rorl $2,%edi xorl %r12d,%r13d shrl $3,%r12d rorl $7,%r13d xorl %r14d,%edi shrl $10,%r14d rorl $17,%edi xorl %r13d,%r12d xorl %r14d,%edi addl 32(%rsp),%r12d addl 60(%rsp),%r12d movl %r9d,%r13d addl %edi,%r12d movl %ebx,%r14d rorl $14,%r13d movl %r10d,%edi xorl %r9d,%r13d rorl $9,%r14d xorl %r11d,%edi movl %r12d,60(%rsp) xorl %ebx,%r14d andl %r9d,%edi rorl $5,%r13d addl %eax,%r12d xorl %r11d,%edi rorl $11,%r14d xorl %r9d,%r13d addl %edi,%r12d movl %ebx,%edi addl (%rbp),%r12d xorl %ebx,%r14d xorl %ecx,%edi rorl $6,%r13d movl %ecx,%eax andl %edi,%r15d rorl $2,%r14d addl %r13d,%r12d xorl %r15d,%eax addl %r12d,%r8d addl %r12d,%eax leaq 20(%rbp),%rbp cmpb $0,3(%rbp) jnz .Lrounds_16_xx movq 64+0(%rsp),%rdi addl %r14d,%eax leaq 64(%rsi),%rsi addl 0(%rdi),%eax addl 4(%rdi),%ebx addl 8(%rdi),%ecx addl 12(%rdi),%edx addl 16(%rdi),%r8d addl 20(%rdi),%r9d addl 24(%rdi),%r10d addl 28(%rdi),%r11d cmpq 64+16(%rsp),%rsi movl %eax,0(%rdi) movl %ebx,4(%rdi) movl %ecx,8(%rdi) movl %edx,12(%rdi) movl %r8d,16(%rdi) movl %r9d,20(%rdi) movl %r10d,24(%rdi) movl %r11d,28(%rdi) jb .Lloop movq 88(%rsp),%rsi .cfi_def_cfa %rsi,8 movq -48(%rsi),%r15 .cfi_restore %r15 movq -40(%rsi),%r14 .cfi_restore %r14 movq -32(%rsi),%r13 .cfi_restore %r13 movq -24(%rsi),%r12 .cfi_restore %r12 movq -16(%rsi),%rbp .cfi_restore %rbp movq -8(%rsi),%rbx .cfi_restore %rbx leaq (%rsi),%rsp .cfi_def_cfa_register %rsp .Lepilogue: ret .cfi_endproc .size sha256_block_data_order_nohw,.-sha256_block_data_order_nohw .section .rodata .align 64 .type K256,@object K256: .long 0x428a2f98,0x71374491,0xb5c0fbcf,0xe9b5dba5 .long 0x428a2f98,0x71374491,0xb5c0fbcf,0xe9b5dba5 .long 0x3956c25b,0x59f111f1,0x923f82a4,0xab1c5ed5 .long 0x3956c25b,0x59f111f1,0x923f82a4,0xab1c5ed5 .long 0xd807aa98,0x12835b01,0x243185be,0x550c7dc3 .long 0xd807aa98,0x12835b01,0x243185be,0x550c7dc3 .long 0x72be5d74,0x80deb1fe,0x9bdc06a7,0xc19bf174 .long 0x72be5d74,0x80deb1fe,0x9bdc06a7,0xc19bf174 .long 0xe49b69c1,0xefbe4786,0x0fc19dc6,0x240ca1cc .long 0xe49b69c1,0xefbe4786,0x0fc19dc6,0x240ca1cc .long 0x2de92c6f,0x4a7484aa,0x5cb0a9dc,0x76f988da .long 0x2de92c6f,0x4a7484aa,0x5cb0a9dc,0x76f988da .long 0x983e5152,0xa831c66d,0xb00327c8,0xbf597fc7 .long 0x983e5152,0xa831c66d,0xb00327c8,0xbf597fc7 .long 0xc6e00bf3,0xd5a79147,0x06ca6351,0x14292967 .long 0xc6e00bf3,0xd5a79147,0x06ca6351,0x14292967 .long 0x27b70a85,0x2e1b2138,0x4d2c6dfc,0x53380d13 .long 0x27b70a85,0x2e1b2138,0x4d2c6dfc,0x53380d13 .long 0x650a7354,0x766a0abb,0x81c2c92e,0x92722c85 .long 0x650a7354,0x766a0abb,0x81c2c92e,0x92722c85 .long 0xa2bfe8a1,0xa81a664b,0xc24b8b70,0xc76c51a3 .long 0xa2bfe8a1,0xa81a664b,0xc24b8b70,0xc76c51a3 .long 0xd192e819,0xd6990624,0xf40e3585,0x106aa070 .long 0xd192e819,0xd6990624,0xf40e3585,0x106aa070 .long 0x19a4c116,0x1e376c08,0x2748774c,0x34b0bcb5 .long 0x19a4c116,0x1e376c08,0x2748774c,0x34b0bcb5 .long 0x391c0cb3,0x4ed8aa4a,0x5b9cca4f,0x682e6ff3 .long 0x391c0cb3,0x4ed8aa4a,0x5b9cca4f,0x682e6ff3 .long 0x748f82ee,0x78a5636f,0x84c87814,0x8cc70208 .long 0x748f82ee,0x78a5636f,0x84c87814,0x8cc70208 .long 0x90befffa,0xa4506ceb,0xbef9a3f7,0xc67178f2 .long 0x90befffa,0xa4506ceb,0xbef9a3f7,0xc67178f2 .long 0x00010203,0x04050607,0x08090a0b,0x0c0d0e0f .long 0x00010203,0x04050607,0x08090a0b,0x0c0d0e0f .long 0x03020100,0x0b0a0908,0xffffffff,0xffffffff .long 0x03020100,0x0b0a0908,0xffffffff,0xffffffff .long 0xffffffff,0xffffffff,0x03020100,0x0b0a0908 .long 0xffffffff,0xffffffff,0x03020100,0x0b0a0908 .byte 83,72,65,50,53,54,32,98,108,111,99,107,32,116,114,97,110,115,102,111,114,109,32,102,111,114,32,120,56,54,95,54,52,44,32,67,82,89,80,84,79,71,65,77,83,32,98,121,32,60,97,112,112,114,111,64,111,112,101,110,115,115,108,46,111,114,103,62,0 .text .globl sha256_block_data_order_hw .hidden sha256_block_data_order_hw .type sha256_block_data_order_hw,@function .align 64 sha256_block_data_order_hw: .cfi_startproc _CET_ENDBR leaq K256+128(%rip),%rcx movdqu (%rdi),%xmm1 movdqu 16(%rdi),%xmm2 movdqa 512-128(%rcx),%xmm7 pshufd $0x1b,%xmm1,%xmm0 pshufd $0xb1,%xmm1,%xmm1 pshufd $0x1b,%xmm2,%xmm2 movdqa %xmm7,%xmm8 .byte 102,15,58,15,202,8 punpcklqdq %xmm0,%xmm2 jmp .Loop_shaext .align 16 .Loop_shaext: movdqu (%rsi),%xmm3 movdqu 16(%rsi),%xmm4 movdqu 32(%rsi),%xmm5 .byte 102,15,56,0,223 movdqu 48(%rsi),%xmm6 movdqa 0-128(%rcx),%xmm0 paddd %xmm3,%xmm0 .byte 102,15,56,0,231 movdqa %xmm2,%xmm10 .byte 15,56,203,209 pshufd $0x0e,%xmm0,%xmm0 nop movdqa %xmm1,%xmm9 .byte 15,56,203,202 movdqa 32-128(%rcx),%xmm0 paddd %xmm4,%xmm0 .byte 102,15,56,0,239 .byte 15,56,203,209 pshufd $0x0e,%xmm0,%xmm0 leaq 64(%rsi),%rsi .byte 15,56,204,220 .byte 15,56,203,202 movdqa 64-128(%rcx),%xmm0 paddd %xmm5,%xmm0 .byte 102,15,56,0,247 .byte 15,56,203,209 pshufd $0x0e,%xmm0,%xmm0 movdqa %xmm6,%xmm7 .byte 102,15,58,15,253,4 nop paddd %xmm7,%xmm3 .byte 15,56,204,229 .byte 15,56,203,202 movdqa 96-128(%rcx),%xmm0 paddd %xmm6,%xmm0 .byte 15,56,205,222 .byte 15,56,203,209 pshufd $0x0e,%xmm0,%xmm0 movdqa %xmm3,%xmm7 .byte 102,15,58,15,254,4 nop paddd %xmm7,%xmm4 .byte 15,56,204,238 .byte 15,56,203,202 movdqa 128-128(%rcx),%xmm0 paddd %xmm3,%xmm0 .byte 15,56,205,227 .byte 15,56,203,209 pshufd $0x0e,%xmm0,%xmm0 movdqa %xmm4,%xmm7 .byte 102,15,58,15,251,4 nop paddd %xmm7,%xmm5 .byte 15,56,204,243 .byte 15,56,203,202 movdqa 160-128(%rcx),%xmm0 paddd %xmm4,%xmm0 .byte 15,56,205,236 .byte 15,56,203,209 pshufd $0x0e,%xmm0,%xmm0 movdqa %xmm5,%xmm7 .byte 102,15,58,15,252,4 nop paddd %xmm7,%xmm6 .byte 15,56,204,220 .byte 15,56,203,202 movdqa 192-128(%rcx),%xmm0 paddd %xmm5,%xmm0 .byte 15,56,205,245 .byte 15,56,203,209 pshufd $0x0e,%xmm0,%xmm0 movdqa %xmm6,%xmm7 .byte 102,15,58,15,253,4 nop paddd %xmm7,%xmm3 .byte 15,56,204,229 .byte 15,56,203,202 movdqa 224-128(%rcx),%xmm0 paddd %xmm6,%xmm0 .byte 15,56,205,222 .byte 15,56,203,209 pshufd $0x0e,%xmm0,%xmm0 movdqa %xmm3,%xmm7 .byte 102,15,58,15,254,4 nop paddd %xmm7,%xmm4 .byte 15,56,204,238 .byte 15,56,203,202 movdqa 256-128(%rcx),%xmm0 paddd %xmm3,%xmm0 .byte 15,56,205,227 .byte 15,56,203,209 pshufd $0x0e,%xmm0,%xmm0 movdqa %xmm4,%xmm7 .byte 102,15,58,15,251,4 nop paddd %xmm7,%xmm5 .byte 15,56,204,243 .byte 15,56,203,202 movdqa 288-128(%rcx),%xmm0 paddd %xmm4,%xmm0 .byte 15,56,205,236 .byte 15,56,203,209 pshufd $0x0e,%xmm0,%xmm0 movdqa %xmm5,%xmm7 .byte 102,15,58,15,252,4 nop paddd %xmm7,%xmm6 .byte 15,56,204,220 .byte 15,56,203,202 movdqa 320-128(%rcx),%xmm0 paddd %xmm5,%xmm0 .byte 15,56,205,245 .byte 15,56,203,209 pshufd $0x0e,%xmm0,%xmm0 movdqa %xmm6,%xmm7 .byte 102,15,58,15,253,4 nop paddd %xmm7,%xmm3 .byte 15,56,204,229 .byte 15,56,203,202 movdqa 352-128(%rcx),%xmm0 paddd %xmm6,%xmm0 .byte 15,56,205,222 .byte 15,56,203,209 pshufd $0x0e,%xmm0,%xmm0 movdqa %xmm3,%xmm7 .byte 102,15,58,15,254,4 nop paddd %xmm7,%xmm4 .byte 15,56,204,238 .byte 15,56,203,202 movdqa 384-128(%rcx),%xmm0 paddd %xmm3,%xmm0 .byte 15,56,205,227 .byte 15,56,203,209 pshufd $0x0e,%xmm0,%xmm0 movdqa %xmm4,%xmm7 .byte 102,15,58,15,251,4 nop paddd %xmm7,%xmm5 .byte 15,56,204,243 .byte 15,56,203,202 movdqa 416-128(%rcx),%xmm0 paddd %xmm4,%xmm0 .byte 15,56,205,236 .byte 15,56,203,209 pshufd $0x0e,%xmm0,%xmm0 movdqa %xmm5,%xmm7 .byte 102,15,58,15,252,4 .byte 15,56,203,202 paddd %xmm7,%xmm6 movdqa 448-128(%rcx),%xmm0 paddd %xmm5,%xmm0 .byte 15,56,203,209 pshufd $0x0e,%xmm0,%xmm0 .byte 15,56,205,245 movdqa %xmm8,%xmm7 .byte 15,56,203,202 movdqa 480-128(%rcx),%xmm0 paddd %xmm6,%xmm0 nop .byte 15,56,203,209 pshufd $0x0e,%xmm0,%xmm0 decq %rdx nop .byte 15,56,203,202 paddd %xmm10,%xmm2 paddd %xmm9,%xmm1 jnz .Loop_shaext pshufd $0xb1,%xmm2,%xmm2 pshufd $0x1b,%xmm1,%xmm7 pshufd $0xb1,%xmm1,%xmm1 punpckhqdq %xmm2,%xmm1 .byte 102,15,58,15,215,8 movdqu %xmm1,(%rdi) movdqu %xmm2,16(%rdi) ret .cfi_endproc .size sha256_block_data_order_hw,.-sha256_block_data_order_hw .globl sha256_block_data_order_ssse3 .hidden sha256_block_data_order_ssse3 .type sha256_block_data_order_ssse3,@function .align 64 sha256_block_data_order_ssse3: .cfi_startproc _CET_ENDBR movq %rsp,%rax .cfi_def_cfa_register %rax pushq %rbx .cfi_offset %rbx,-16 pushq %rbp .cfi_offset %rbp,-24 pushq %r12 .cfi_offset %r12,-32 pushq %r13 .cfi_offset %r13,-40 pushq %r14 .cfi_offset %r14,-48 pushq %r15 .cfi_offset %r15,-56 shlq $4,%rdx subq $96,%rsp leaq (%rsi,%rdx,4),%rdx andq $-64,%rsp movq %rdi,64+0(%rsp) movq %rsi,64+8(%rsp) movq %rdx,64+16(%rsp) movq %rax,88(%rsp) .cfi_escape 0x0f,0x06,0x77,0xd8,0x00,0x06,0x23,0x08 .Lprologue_ssse3: movl 0(%rdi),%eax movl 4(%rdi),%ebx movl 8(%rdi),%ecx movl 12(%rdi),%edx movl 16(%rdi),%r8d movl 20(%rdi),%r9d movl 24(%rdi),%r10d movl 28(%rdi),%r11d jmp .Lloop_ssse3 .align 16 .Lloop_ssse3: movdqa K256+512(%rip),%xmm7 movdqu 0(%rsi),%xmm0 movdqu 16(%rsi),%xmm1 movdqu 32(%rsi),%xmm2 .byte 102,15,56,0,199 movdqu 48(%rsi),%xmm3 leaq K256(%rip),%rbp .byte 102,15,56,0,207 movdqa 0(%rbp),%xmm4 movdqa 32(%rbp),%xmm5 .byte 102,15,56,0,215 paddd %xmm0,%xmm4 movdqa 64(%rbp),%xmm6 .byte 102,15,56,0,223 movdqa 96(%rbp),%xmm7 paddd %xmm1,%xmm5 paddd %xmm2,%xmm6 paddd %xmm3,%xmm7 movdqa %xmm4,0(%rsp) movl %eax,%r14d movdqa %xmm5,16(%rsp) movl %ebx,%edi movdqa %xmm6,32(%rsp) xorl %ecx,%edi movdqa %xmm7,48(%rsp) movl %r8d,%r13d jmp .Lssse3_00_47 .align 16 .Lssse3_00_47: subq $-128,%rbp rorl $14,%r13d movdqa %xmm1,%xmm4 movl %r14d,%eax movl %r9d,%r12d movdqa %xmm3,%xmm7 rorl $9,%r14d xorl %r8d,%r13d xorl %r10d,%r12d rorl $5,%r13d xorl %eax,%r14d .byte 102,15,58,15,224,4 andl %r8d,%r12d xorl %r8d,%r13d .byte 102,15,58,15,250,4 addl 0(%rsp),%r11d movl %eax,%r15d xorl %r10d,%r12d rorl $11,%r14d movdqa %xmm4,%xmm5 xorl %ebx,%r15d addl %r12d,%r11d movdqa %xmm4,%xmm6 rorl $6,%r13d andl %r15d,%edi psrld $3,%xmm4 xorl %eax,%r14d addl %r13d,%r11d xorl %ebx,%edi paddd %xmm7,%xmm0 rorl $2,%r14d addl %r11d,%edx psrld $7,%xmm6 addl %edi,%r11d movl %edx,%r13d pshufd $250,%xmm3,%xmm7 addl %r11d,%r14d rorl $14,%r13d pslld $14,%xmm5 movl %r14d,%r11d movl %r8d,%r12d pxor %xmm6,%xmm4 rorl $9,%r14d xorl %edx,%r13d xorl %r9d,%r12d rorl $5,%r13d psrld $11,%xmm6 xorl %r11d,%r14d pxor %xmm5,%xmm4 andl %edx,%r12d xorl %edx,%r13d pslld $11,%xmm5 addl 4(%rsp),%r10d movl %r11d,%edi pxor %xmm6,%xmm4 xorl %r9d,%r12d rorl $11,%r14d movdqa %xmm7,%xmm6 xorl %eax,%edi addl %r12d,%r10d pxor %xmm5,%xmm4 rorl $6,%r13d andl %edi,%r15d xorl %r11d,%r14d psrld $10,%xmm7 addl %r13d,%r10d xorl %eax,%r15d paddd %xmm4,%xmm0 rorl $2,%r14d addl %r10d,%ecx psrlq $17,%xmm6 addl %r15d,%r10d movl %ecx,%r13d addl %r10d,%r14d pxor %xmm6,%xmm7 rorl $14,%r13d movl %r14d,%r10d movl %edx,%r12d rorl $9,%r14d psrlq $2,%xmm6 xorl %ecx,%r13d xorl %r8d,%r12d pxor %xmm6,%xmm7 rorl $5,%r13d xorl %r10d,%r14d andl %ecx,%r12d pshufd $128,%xmm7,%xmm7 xorl %ecx,%r13d addl 8(%rsp),%r9d movl %r10d,%r15d psrldq $8,%xmm7 xorl %r8d,%r12d rorl $11,%r14d xorl %r11d,%r15d addl %r12d,%r9d rorl $6,%r13d paddd %xmm7,%xmm0 andl %r15d,%edi xorl %r10d,%r14d addl %r13d,%r9d pshufd $80,%xmm0,%xmm7 xorl %r11d,%edi rorl $2,%r14d addl %r9d,%ebx movdqa %xmm7,%xmm6 addl %edi,%r9d movl %ebx,%r13d psrld $10,%xmm7 addl %r9d,%r14d rorl $14,%r13d psrlq $17,%xmm6 movl %r14d,%r9d movl %ecx,%r12d pxor %xmm6,%xmm7 rorl $9,%r14d xorl %ebx,%r13d xorl %edx,%r12d rorl $5,%r13d xorl %r9d,%r14d psrlq $2,%xmm6 andl %ebx,%r12d xorl %ebx,%r13d addl 12(%rsp),%r8d pxor %xmm6,%xmm7 movl %r9d,%edi xorl %edx,%r12d rorl $11,%r14d pshufd $8,%xmm7,%xmm7 xorl %r10d,%edi addl %r12d,%r8d movdqa 0(%rbp),%xmm6 rorl $6,%r13d andl %edi,%r15d pslldq $8,%xmm7 xorl %r9d,%r14d addl %r13d,%r8d xorl %r10d,%r15d paddd %xmm7,%xmm0 rorl $2,%r14d addl %r8d,%eax addl %r15d,%r8d paddd %xmm0,%xmm6 movl %eax,%r13d addl %r8d,%r14d movdqa %xmm6,0(%rsp) rorl $14,%r13d movdqa %xmm2,%xmm4 movl %r14d,%r8d movl %ebx,%r12d movdqa %xmm0,%xmm7 rorl $9,%r14d xorl %eax,%r13d xorl %ecx,%r12d rorl $5,%r13d xorl %r8d,%r14d .byte 102,15,58,15,225,4 andl %eax,%r12d xorl %eax,%r13d .byte 102,15,58,15,251,4 addl 16(%rsp),%edx movl %r8d,%r15d xorl %ecx,%r12d rorl $11,%r14d movdqa %xmm4,%xmm5 xorl %r9d,%r15d addl %r12d,%edx movdqa %xmm4,%xmm6 rorl $6,%r13d andl %r15d,%edi psrld $3,%xmm4 xorl %r8d,%r14d addl %r13d,%edx xorl %r9d,%edi paddd %xmm7,%xmm1 rorl $2,%r14d addl %edx,%r11d psrld $7,%xmm6 addl %edi,%edx movl %r11d,%r13d pshufd $250,%xmm0,%xmm7 addl %edx,%r14d rorl $14,%r13d pslld $14,%xmm5 movl %r14d,%edx movl %eax,%r12d pxor %xmm6,%xmm4 rorl $9,%r14d xorl %r11d,%r13d xorl %ebx,%r12d rorl $5,%r13d psrld $11,%xmm6 xorl %edx,%r14d pxor %xmm5,%xmm4 andl %r11d,%r12d xorl %r11d,%r13d pslld $11,%xmm5 addl 20(%rsp),%ecx movl %edx,%edi pxor %xmm6,%xmm4 xorl %ebx,%r12d rorl $11,%r14d movdqa %xmm7,%xmm6 xorl %r8d,%edi addl %r12d,%ecx pxor %xmm5,%xmm4 rorl $6,%r13d andl %edi,%r15d xorl %edx,%r14d psrld $10,%xmm7 addl %r13d,%ecx xorl %r8d,%r15d paddd %xmm4,%xmm1 rorl $2,%r14d addl %ecx,%r10d psrlq $17,%xmm6 addl %r15d,%ecx movl %r10d,%r13d addl %ecx,%r14d pxor %xmm6,%xmm7 rorl $14,%r13d movl %r14d,%ecx movl %r11d,%r12d rorl $9,%r14d psrlq $2,%xmm6 xorl %r10d,%r13d xorl %eax,%r12d pxor %xmm6,%xmm7 rorl $5,%r13d xorl %ecx,%r14d andl %r10d,%r12d pshufd $128,%xmm7,%xmm7 xorl %r10d,%r13d addl 24(%rsp),%ebx movl %ecx,%r15d psrldq $8,%xmm7 xorl %eax,%r12d rorl $11,%r14d xorl %edx,%r15d addl %r12d,%ebx rorl $6,%r13d paddd %xmm7,%xmm1 andl %r15d,%edi xorl %ecx,%r14d addl %r13d,%ebx pshufd $80,%xmm1,%xmm7 xorl %edx,%edi rorl $2,%r14d addl %ebx,%r9d movdqa %xmm7,%xmm6 addl %edi,%ebx movl %r9d,%r13d psrld $10,%xmm7 addl %ebx,%r14d rorl $14,%r13d psrlq $17,%xmm6 movl %r14d,%ebx movl %r10d,%r12d pxor %xmm6,%xmm7 rorl $9,%r14d xorl %r9d,%r13d xorl %r11d,%r12d rorl $5,%r13d xorl %ebx,%r14d psrlq $2,%xmm6 andl %r9d,%r12d xorl %r9d,%r13d addl 28(%rsp),%eax pxor %xmm6,%xmm7 movl %ebx,%edi xorl %r11d,%r12d rorl $11,%r14d pshufd $8,%xmm7,%xmm7 xorl %ecx,%edi addl %r12d,%eax movdqa 32(%rbp),%xmm6 rorl $6,%r13d andl %edi,%r15d pslldq $8,%xmm7 xorl %ebx,%r14d addl %r13d,%eax xorl %ecx,%r15d paddd %xmm7,%xmm1 rorl $2,%r14d addl %eax,%r8d addl %r15d,%eax paddd %xmm1,%xmm6 movl %r8d,%r13d addl %eax,%r14d movdqa %xmm6,16(%rsp) rorl $14,%r13d movdqa %xmm3,%xmm4 movl %r14d,%eax movl %r9d,%r12d movdqa %xmm1,%xmm7 rorl $9,%r14d xorl %r8d,%r13d xorl %r10d,%r12d rorl $5,%r13d xorl %eax,%r14d .byte 102,15,58,15,226,4 andl %r8d,%r12d xorl %r8d,%r13d .byte 102,15,58,15,248,4 addl 32(%rsp),%r11d movl %eax,%r15d xorl %r10d,%r12d rorl $11,%r14d movdqa %xmm4,%xmm5 xorl %ebx,%r15d addl %r12d,%r11d movdqa %xmm4,%xmm6 rorl $6,%r13d andl %r15d,%edi psrld $3,%xmm4 xorl %eax,%r14d addl %r13d,%r11d xorl %ebx,%edi paddd %xmm7,%xmm2 rorl $2,%r14d addl %r11d,%edx psrld $7,%xmm6 addl %edi,%r11d movl %edx,%r13d pshufd $250,%xmm1,%xmm7 addl %r11d,%r14d rorl $14,%r13d pslld $14,%xmm5 movl %r14d,%r11d movl %r8d,%r12d pxor %xmm6,%xmm4 rorl $9,%r14d xorl %edx,%r13d xorl %r9d,%r12d rorl $5,%r13d psrld $11,%xmm6 xorl %r11d,%r14d pxor %xmm5,%xmm4 andl %edx,%r12d xorl %edx,%r13d pslld $11,%xmm5 addl 36(%rsp),%r10d movl %r11d,%edi pxor %xmm6,%xmm4 xorl %r9d,%r12d rorl $11,%r14d movdqa %xmm7,%xmm6 xorl %eax,%edi addl %r12d,%r10d pxor %xmm5,%xmm4 rorl $6,%r13d andl %edi,%r15d xorl %r11d,%r14d psrld $10,%xmm7 addl %r13d,%r10d xorl %eax,%r15d paddd %xmm4,%xmm2 rorl $2,%r14d addl %r10d,%ecx psrlq $17,%xmm6 addl %r15d,%r10d movl %ecx,%r13d addl %r10d,%r14d pxor %xmm6,%xmm7 rorl $14,%r13d movl %r14d,%r10d movl %edx,%r12d rorl $9,%r14d psrlq $2,%xmm6 xorl %ecx,%r13d xorl %r8d,%r12d pxor %xmm6,%xmm7 rorl $5,%r13d xorl %r10d,%r14d andl %ecx,%r12d pshufd $128,%xmm7,%xmm7 xorl %ecx,%r13d addl 40(%rsp),%r9d movl %r10d,%r15d psrldq $8,%xmm7 xorl %r8d,%r12d rorl $11,%r14d xorl %r11d,%r15d addl %r12d,%r9d rorl $6,%r13d paddd %xmm7,%xmm2 andl %r15d,%edi xorl %r10d,%r14d addl %r13d,%r9d pshufd $80,%xmm2,%xmm7 xorl %r11d,%edi rorl $2,%r14d addl %r9d,%ebx movdqa %xmm7,%xmm6 addl %edi,%r9d movl %ebx,%r13d psrld $10,%xmm7 addl %r9d,%r14d rorl $14,%r13d psrlq $17,%xmm6 movl %r14d,%r9d movl %ecx,%r12d pxor %xmm6,%xmm7 rorl $9,%r14d xorl %ebx,%r13d xorl %edx,%r12d rorl $5,%r13d xorl %r9d,%r14d psrlq $2,%xmm6 andl %ebx,%r12d xorl %ebx,%r13d addl 44(%rsp),%r8d pxor %xmm6,%xmm7 movl %r9d,%edi xorl %edx,%r12d rorl $11,%r14d pshufd $8,%xmm7,%xmm7 xorl %r10d,%edi addl %r12d,%r8d movdqa 64(%rbp),%xmm6 rorl $6,%r13d andl %edi,%r15d pslldq $8,%xmm7 xorl %r9d,%r14d addl %r13d,%r8d xorl %r10d,%r15d paddd %xmm7,%xmm2 rorl $2,%r14d addl %r8d,%eax addl %r15d,%r8d paddd %xmm2,%xmm6 movl %eax,%r13d addl %r8d,%r14d movdqa %xmm6,32(%rsp) rorl $14,%r13d movdqa %xmm0,%xmm4 movl %r14d,%r8d movl %ebx,%r12d movdqa %xmm2,%xmm7 rorl $9,%r14d xorl %eax,%r13d xorl %ecx,%r12d rorl $5,%r13d xorl %r8d,%r14d .byte 102,15,58,15,227,4 andl %eax,%r12d xorl %eax,%r13d .byte 102,15,58,15,249,4 addl 48(%rsp),%edx movl %r8d,%r15d xorl %ecx,%r12d rorl $11,%r14d movdqa %xmm4,%xmm5 xorl %r9d,%r15d addl %r12d,%edx movdqa %xmm4,%xmm6 rorl $6,%r13d andl %r15d,%edi psrld $3,%xmm4 xorl %r8d,%r14d addl %r13d,%edx xorl %r9d,%edi paddd %xmm7,%xmm3 rorl $2,%r14d addl %edx,%r11d psrld $7,%xmm6 addl %edi,%edx movl %r11d,%r13d pshufd $250,%xmm2,%xmm7 addl %edx,%r14d rorl $14,%r13d pslld $14,%xmm5 movl %r14d,%edx movl %eax,%r12d pxor %xmm6,%xmm4 rorl $9,%r14d xorl %r11d,%r13d xorl %ebx,%r12d rorl $5,%r13d psrld $11,%xmm6 xorl %edx,%r14d pxor %xmm5,%xmm4 andl %r11d,%r12d xorl %r11d,%r13d pslld $11,%xmm5 addl 52(%rsp),%ecx movl %edx,%edi pxor %xmm6,%xmm4 xorl %ebx,%r12d rorl $11,%r14d movdqa %xmm7,%xmm6 xorl %r8d,%edi addl %r12d,%ecx pxor %xmm5,%xmm4 rorl $6,%r13d andl %edi,%r15d xorl %edx,%r14d psrld $10,%xmm7 addl %r13d,%ecx xorl %r8d,%r15d paddd %xmm4,%xmm3 rorl $2,%r14d addl %ecx,%r10d psrlq $17,%xmm6 addl %r15d,%ecx movl %r10d,%r13d addl %ecx,%r14d pxor %xmm6,%xmm7 rorl $14,%r13d movl %r14d,%ecx movl %r11d,%r12d rorl $9,%r14d psrlq $2,%xmm6 xorl %r10d,%r13d xorl %eax,%r12d pxor %xmm6,%xmm7 rorl $5,%r13d xorl %ecx,%r14d andl %r10d,%r12d pshufd $128,%xmm7,%xmm7 xorl %r10d,%r13d addl 56(%rsp),%ebx movl %ecx,%r15d psrldq $8,%xmm7 xorl %eax,%r12d rorl $11,%r14d xorl %edx,%r15d addl %r12d,%ebx rorl $6,%r13d paddd %xmm7,%xmm3 andl %r15d,%edi xorl %ecx,%r14d addl %r13d,%ebx pshufd $80,%xmm3,%xmm7 xorl %edx,%edi rorl $2,%r14d addl %ebx,%r9d movdqa %xmm7,%xmm6 addl %edi,%ebx movl %r9d,%r13d psrld $10,%xmm7 addl %ebx,%r14d rorl $14,%r13d psrlq $17,%xmm6 movl %r14d,%ebx movl %r10d,%r12d pxor %xmm6,%xmm7 rorl $9,%r14d xorl %r9d,%r13d xorl %r11d,%r12d rorl $5,%r13d xorl %ebx,%r14d psrlq $2,%xmm6 andl %r9d,%r12d xorl %r9d,%r13d addl 60(%rsp),%eax pxor %xmm6,%xmm7 movl %ebx,%edi xorl %r11d,%r12d rorl $11,%r14d pshufd $8,%xmm7,%xmm7 xorl %ecx,%edi addl %r12d,%eax movdqa 96(%rbp),%xmm6 rorl $6,%r13d andl %edi,%r15d pslldq $8,%xmm7 xorl %ebx,%r14d addl %r13d,%eax xorl %ecx,%r15d paddd %xmm7,%xmm3 rorl $2,%r14d addl %eax,%r8d addl %r15d,%eax paddd %xmm3,%xmm6 movl %r8d,%r13d addl %eax,%r14d movdqa %xmm6,48(%rsp) cmpb $0,131(%rbp) jne .Lssse3_00_47 rorl $14,%r13d movl %r14d,%eax movl %r9d,%r12d rorl $9,%r14d xorl %r8d,%r13d xorl %r10d,%r12d rorl $5,%r13d xorl %eax,%r14d andl %r8d,%r12d xorl %r8d,%r13d addl 0(%rsp),%r11d movl %eax,%r15d xorl %r10d,%r12d rorl $11,%r14d xorl %ebx,%r15d addl %r12d,%r11d rorl $6,%r13d andl %r15d,%edi xorl %eax,%r14d addl %r13d,%r11d xorl %ebx,%edi rorl $2,%r14d addl %r11d,%edx addl %edi,%r11d movl %edx,%r13d addl %r11d,%r14d rorl $14,%r13d movl %r14d,%r11d movl %r8d,%r12d rorl $9,%r14d xorl %edx,%r13d xorl %r9d,%r12d rorl $5,%r13d xorl %r11d,%r14d andl %edx,%r12d xorl %edx,%r13d addl 4(%rsp),%r10d movl %r11d,%edi xorl %r9d,%r12d rorl $11,%r14d xorl %eax,%edi addl %r12d,%r10d rorl $6,%r13d andl %edi,%r15d xorl %r11d,%r14d addl %r13d,%r10d xorl %eax,%r15d rorl $2,%r14d addl %r10d,%ecx addl %r15d,%r10d movl %ecx,%r13d addl %r10d,%r14d rorl $14,%r13d movl %r14d,%r10d movl %edx,%r12d rorl $9,%r14d xorl %ecx,%r13d xorl %r8d,%r12d rorl $5,%r13d xorl %r10d,%r14d andl %ecx,%r12d xorl %ecx,%r13d addl 8(%rsp),%r9d movl %r10d,%r15d xorl %r8d,%r12d rorl $11,%r14d xorl %r11d,%r15d addl %r12d,%r9d rorl $6,%r13d andl %r15d,%edi xorl %r10d,%r14d addl %r13d,%r9d xorl %r11d,%edi rorl $2,%r14d addl %r9d,%ebx addl %edi,%r9d movl %ebx,%r13d addl %r9d,%r14d rorl $14,%r13d movl %r14d,%r9d movl %ecx,%r12d rorl $9,%r14d xorl %ebx,%r13d xorl %edx,%r12d rorl $5,%r13d xorl %r9d,%r14d andl %ebx,%r12d xorl %ebx,%r13d addl 12(%rsp),%r8d movl %r9d,%edi xorl %edx,%r12d rorl $11,%r14d xorl %r10d,%edi addl %r12d,%r8d rorl $6,%r13d andl %edi,%r15d xorl %r9d,%r14d addl %r13d,%r8d xorl %r10d,%r15d rorl $2,%r14d addl %r8d,%eax addl %r15d,%r8d movl %eax,%r13d addl %r8d,%r14d rorl $14,%r13d movl %r14d,%r8d movl %ebx,%r12d rorl $9,%r14d xorl %eax,%r13d xorl %ecx,%r12d rorl $5,%r13d xorl %r8d,%r14d andl %eax,%r12d xorl %eax,%r13d addl 16(%rsp),%edx movl %r8d,%r15d xorl %ecx,%r12d rorl $11,%r14d xorl %r9d,%r15d addl %r12d,%edx rorl $6,%r13d andl %r15d,%edi xorl %r8d,%r14d addl %r13d,%edx xorl %r9d,%edi rorl $2,%r14d addl %edx,%r11d addl %edi,%edx movl %r11d,%r13d addl %edx,%r14d rorl $14,%r13d movl %r14d,%edx movl %eax,%r12d rorl $9,%r14d xorl %r11d,%r13d xorl %ebx,%r12d rorl $5,%r13d xorl %edx,%r14d andl %r11d,%r12d xorl %r11d,%r13d addl 20(%rsp),%ecx movl %edx,%edi xorl %ebx,%r12d rorl $11,%r14d xorl %r8d,%edi addl %r12d,%ecx rorl $6,%r13d andl %edi,%r15d xorl %edx,%r14d addl %r13d,%ecx xorl %r8d,%r15d rorl $2,%r14d addl %ecx,%r10d addl %r15d,%ecx movl %r10d,%r13d addl %ecx,%r14d rorl $14,%r13d movl %r14d,%ecx movl %r11d,%r12d rorl $9,%r14d xorl %r10d,%r13d xorl %eax,%r12d rorl $5,%r13d xorl %ecx,%r14d andl %r10d,%r12d xorl %r10d,%r13d addl 24(%rsp),%ebx movl %ecx,%r15d xorl %eax,%r12d rorl $11,%r14d xorl %edx,%r15d addl %r12d,%ebx rorl $6,%r13d andl %r15d,%edi xorl %ecx,%r14d addl %r13d,%ebx xorl %edx,%edi rorl $2,%r14d addl %ebx,%r9d addl %edi,%ebx movl %r9d,%r13d addl %ebx,%r14d rorl $14,%r13d movl %r14d,%ebx movl %r10d,%r12d rorl $9,%r14d xorl %r9d,%r13d xorl %r11d,%r12d rorl $5,%r13d xorl %ebx,%r14d andl %r9d,%r12d xorl %r9d,%r13d addl 28(%rsp),%eax movl %ebx,%edi xorl %r11d,%r12d rorl $11,%r14d xorl %ecx,%edi addl %r12d,%eax rorl $6,%r13d andl %edi,%r15d xorl %ebx,%r14d addl %r13d,%eax xorl %ecx,%r15d rorl $2,%r14d addl %eax,%r8d addl %r15d,%eax movl %r8d,%r13d addl %eax,%r14d rorl $14,%r13d movl %r14d,%eax movl %r9d,%r12d rorl $9,%r14d xorl %r8d,%r13d xorl %r10d,%r12d rorl $5,%r13d xorl %eax,%r14d andl %r8d,%r12d xorl %r8d,%r13d addl 32(%rsp),%r11d movl %eax,%r15d xorl %r10d,%r12d rorl $11,%r14d xorl %ebx,%r15d addl %r12d,%r11d rorl $6,%r13d andl %r15d,%edi xorl %eax,%r14d addl %r13d,%r11d xorl %ebx,%edi rorl $2,%r14d addl %r11d,%edx addl %edi,%r11d movl %edx,%r13d addl %r11d,%r14d rorl $14,%r13d movl %r14d,%r11d movl %r8d,%r12d rorl $9,%r14d xorl %edx,%r13d xorl %r9d,%r12d rorl $5,%r13d xorl %r11d,%r14d andl %edx,%r12d xorl %edx,%r13d addl 36(%rsp),%r10d movl %r11d,%edi xorl %r9d,%r12d rorl $11,%r14d xorl %eax,%edi addl %r12d,%r10d rorl $6,%r13d andl %edi,%r15d xorl %r11d,%r14d addl %r13d,%r10d xorl %eax,%r15d rorl $2,%r14d addl %r10d,%ecx addl %r15d,%r10d movl %ecx,%r13d addl %r10d,%r14d rorl $14,%r13d movl %r14d,%r10d movl %edx,%r12d rorl $9,%r14d xorl %ecx,%r13d xorl %r8d,%r12d rorl $5,%r13d xorl %r10d,%r14d andl %ecx,%r12d xorl %ecx,%r13d addl 40(%rsp),%r9d movl %r10d,%r15d xorl %r8d,%r12d rorl $11,%r14d xorl %r11d,%r15d addl %r12d,%r9d rorl $6,%r13d andl %r15d,%edi xorl %r10d,%r14d addl %r13d,%r9d xorl %r11d,%edi rorl $2,%r14d addl %r9d,%ebx addl %edi,%r9d movl %ebx,%r13d addl %r9d,%r14d rorl $14,%r13d movl %r14d,%r9d movl %ecx,%r12d rorl $9,%r14d xorl %ebx,%r13d xorl %edx,%r12d rorl $5,%r13d xorl %r9d,%r14d andl %ebx,%r12d xorl %ebx,%r13d addl 44(%rsp),%r8d movl %r9d,%edi xorl %edx,%r12d rorl $11,%r14d xorl %r10d,%edi addl %r12d,%r8d rorl $6,%r13d andl %edi,%r15d xorl %r9d,%r14d addl %r13d,%r8d xorl %r10d,%r15d rorl $2,%r14d addl %r8d,%eax addl %r15d,%r8d movl %eax,%r13d addl %r8d,%r14d rorl $14,%r13d movl %r14d,%r8d movl %ebx,%r12d rorl $9,%r14d xorl %eax,%r13d xorl %ecx,%r12d rorl $5,%r13d xorl %r8d,%r14d andl %eax,%r12d xorl %eax,%r13d addl 48(%rsp),%edx movl %r8d,%r15d xorl %ecx,%r12d rorl $11,%r14d xorl %r9d,%r15d addl %r12d,%edx rorl $6,%r13d andl %r15d,%edi xorl %r8d,%r14d addl %r13d,%edx xorl %r9d,%edi rorl $2,%r14d addl %edx,%r11d addl %edi,%edx movl %r11d,%r13d addl %edx,%r14d rorl $14,%r13d movl %r14d,%edx movl %eax,%r12d rorl $9,%r14d xorl %r11d,%r13d xorl %ebx,%r12d rorl $5,%r13d xorl %edx,%r14d andl %r11d,%r12d xorl %r11d,%r13d addl 52(%rsp),%ecx movl %edx,%edi xorl %ebx,%r12d rorl $11,%r14d xorl %r8d,%edi addl %r12d,%ecx rorl $6,%r13d andl %edi,%r15d xorl %edx,%r14d addl %r13d,%ecx xorl %r8d,%r15d rorl $2,%r14d addl %ecx,%r10d addl %r15d,%ecx movl %r10d,%r13d addl %ecx,%r14d rorl $14,%r13d movl %r14d,%ecx movl %r11d,%r12d rorl $9,%r14d xorl %r10d,%r13d xorl %eax,%r12d rorl $5,%r13d xorl %ecx,%r14d andl %r10d,%r12d xorl %r10d,%r13d addl 56(%rsp),%ebx movl %ecx,%r15d xorl %eax,%r12d rorl $11,%r14d xorl %edx,%r15d addl %r12d,%ebx rorl $6,%r13d andl %r15d,%edi xorl %ecx,%r14d addl %r13d,%ebx xorl %edx,%edi rorl $2,%r14d addl %ebx,%r9d addl %edi,%ebx movl %r9d,%r13d addl %ebx,%r14d rorl $14,%r13d movl %r14d,%ebx movl %r10d,%r12d rorl $9,%r14d xorl %r9d,%r13d xorl %r11d,%r12d rorl $5,%r13d xorl %ebx,%r14d andl %r9d,%r12d xorl %r9d,%r13d addl 60(%rsp),%eax movl %ebx,%edi xorl %r11d,%r12d rorl $11,%r14d xorl %ecx,%edi addl %r12d,%eax rorl $6,%r13d andl %edi,%r15d xorl %ebx,%r14d addl %r13d,%eax xorl %ecx,%r15d rorl $2,%r14d addl %eax,%r8d addl %r15d,%eax movl %r8d,%r13d addl %eax,%r14d movq 64+0(%rsp),%rdi movl %r14d,%eax addl 0(%rdi),%eax leaq 64(%rsi),%rsi addl 4(%rdi),%ebx addl 8(%rdi),%ecx addl 12(%rdi),%edx addl 16(%rdi),%r8d addl 20(%rdi),%r9d addl 24(%rdi),%r10d addl 28(%rdi),%r11d cmpq 64+16(%rsp),%rsi movl %eax,0(%rdi) movl %ebx,4(%rdi) movl %ecx,8(%rdi) movl %edx,12(%rdi) movl %r8d,16(%rdi) movl %r9d,20(%rdi) movl %r10d,24(%rdi) movl %r11d,28(%rdi) jb .Lloop_ssse3 movq 88(%rsp),%rsi .cfi_def_cfa %rsi,8 movq -48(%rsi),%r15 .cfi_restore %r15 movq -40(%rsi),%r14 .cfi_restore %r14 movq -32(%rsi),%r13 .cfi_restore %r13 movq -24(%rsi),%r12 .cfi_restore %r12 movq -16(%rsi),%rbp .cfi_restore %rbp movq -8(%rsi),%rbx .cfi_restore %rbx leaq (%rsi),%rsp .cfi_def_cfa_register %rsp .Lepilogue_ssse3: ret .cfi_endproc .size sha256_block_data_order_ssse3,.-sha256_block_data_order_ssse3 .globl sha256_block_data_order_avx .hidden sha256_block_data_order_avx .type sha256_block_data_order_avx,@function .align 64 sha256_block_data_order_avx: .cfi_startproc _CET_ENDBR movq %rsp,%rax .cfi_def_cfa_register %rax pushq %rbx .cfi_offset %rbx,-16 pushq %rbp .cfi_offset %rbp,-24 pushq %r12 .cfi_offset %r12,-32 pushq %r13 .cfi_offset %r13,-40 pushq %r14 .cfi_offset %r14,-48 pushq %r15 .cfi_offset %r15,-56 shlq $4,%rdx subq $96,%rsp leaq (%rsi,%rdx,4),%rdx andq $-64,%rsp movq %rdi,64+0(%rsp) movq %rsi,64+8(%rsp) movq %rdx,64+16(%rsp) movq %rax,88(%rsp) .cfi_escape 0x0f,0x06,0x77,0xd8,0x00,0x06,0x23,0x08 .Lprologue_avx: vzeroupper movl 0(%rdi),%eax movl 4(%rdi),%ebx movl 8(%rdi),%ecx movl 12(%rdi),%edx movl 16(%rdi),%r8d movl 20(%rdi),%r9d movl 24(%rdi),%r10d movl 28(%rdi),%r11d vmovdqa K256+512+32(%rip),%xmm8 vmovdqa K256+512+64(%rip),%xmm9 jmp .Lloop_avx .align 16 .Lloop_avx: vmovdqa K256+512(%rip),%xmm7 vmovdqu 0(%rsi),%xmm0 vmovdqu 16(%rsi),%xmm1 vmovdqu 32(%rsi),%xmm2 vmovdqu 48(%rsi),%xmm3 vpshufb %xmm7,%xmm0,%xmm0 leaq K256(%rip),%rbp vpshufb %xmm7,%xmm1,%xmm1 vpshufb %xmm7,%xmm2,%xmm2 vpaddd 0(%rbp),%xmm0,%xmm4 vpshufb %xmm7,%xmm3,%xmm3 vpaddd 32(%rbp),%xmm1,%xmm5 vpaddd 64(%rbp),%xmm2,%xmm6 vpaddd 96(%rbp),%xmm3,%xmm7 vmovdqa %xmm4,0(%rsp) movl %eax,%r14d vmovdqa %xmm5,16(%rsp) movl %ebx,%edi vmovdqa %xmm6,32(%rsp) xorl %ecx,%edi vmovdqa %xmm7,48(%rsp) movl %r8d,%r13d jmp .Lavx_00_47 .align 16 .Lavx_00_47: subq $-128,%rbp vpalignr $4,%xmm0,%xmm1,%xmm4 shrdl $14,%r13d,%r13d movl %r14d,%eax movl %r9d,%r12d vpalignr $4,%xmm2,%xmm3,%xmm7 shrdl $9,%r14d,%r14d xorl %r8d,%r13d xorl %r10d,%r12d vpsrld $7,%xmm4,%xmm6 shrdl $5,%r13d,%r13d xorl %eax,%r14d andl %r8d,%r12d vpaddd %xmm7,%xmm0,%xmm0 xorl %r8d,%r13d addl 0(%rsp),%r11d movl %eax,%r15d vpsrld $3,%xmm4,%xmm7 xorl %r10d,%r12d shrdl $11,%r14d,%r14d xorl %ebx,%r15d vpslld $14,%xmm4,%xmm5 addl %r12d,%r11d shrdl $6,%r13d,%r13d andl %r15d,%edi vpxor %xmm6,%xmm7,%xmm4 xorl %eax,%r14d addl %r13d,%r11d xorl %ebx,%edi vpshufd $250,%xmm3,%xmm7 shrdl $2,%r14d,%r14d addl %r11d,%edx addl %edi,%r11d vpsrld $11,%xmm6,%xmm6 movl %edx,%r13d addl %r11d,%r14d shrdl $14,%r13d,%r13d vpxor %xmm5,%xmm4,%xmm4 movl %r14d,%r11d movl %r8d,%r12d shrdl $9,%r14d,%r14d vpslld $11,%xmm5,%xmm5 xorl %edx,%r13d xorl %r9d,%r12d shrdl $5,%r13d,%r13d vpxor %xmm6,%xmm4,%xmm4 xorl %r11d,%r14d andl %edx,%r12d xorl %edx,%r13d vpsrld $10,%xmm7,%xmm6 addl 4(%rsp),%r10d movl %r11d,%edi xorl %r9d,%r12d vpxor %xmm5,%xmm4,%xmm4 shrdl $11,%r14d,%r14d xorl %eax,%edi addl %r12d,%r10d vpsrlq $17,%xmm7,%xmm7 shrdl $6,%r13d,%r13d andl %edi,%r15d xorl %r11d,%r14d vpaddd %xmm4,%xmm0,%xmm0 addl %r13d,%r10d xorl %eax,%r15d shrdl $2,%r14d,%r14d vpxor %xmm7,%xmm6,%xmm6 addl %r10d,%ecx addl %r15d,%r10d movl %ecx,%r13d vpsrlq $2,%xmm7,%xmm7 addl %r10d,%r14d shrdl $14,%r13d,%r13d movl %r14d,%r10d vpxor %xmm7,%xmm6,%xmm6 movl %edx,%r12d shrdl $9,%r14d,%r14d xorl %ecx,%r13d vpshufb %xmm8,%xmm6,%xmm6 xorl %r8d,%r12d shrdl $5,%r13d,%r13d xorl %r10d,%r14d vpaddd %xmm6,%xmm0,%xmm0 andl %ecx,%r12d xorl %ecx,%r13d addl 8(%rsp),%r9d vpshufd $80,%xmm0,%xmm7 movl %r10d,%r15d xorl %r8d,%r12d shrdl $11,%r14d,%r14d vpsrld $10,%xmm7,%xmm6 xorl %r11d,%r15d addl %r12d,%r9d shrdl $6,%r13d,%r13d vpsrlq $17,%xmm7,%xmm7 andl %r15d,%edi xorl %r10d,%r14d addl %r13d,%r9d vpxor %xmm7,%xmm6,%xmm6 xorl %r11d,%edi shrdl $2,%r14d,%r14d addl %r9d,%ebx vpsrlq $2,%xmm7,%xmm7 addl %edi,%r9d movl %ebx,%r13d addl %r9d,%r14d vpxor %xmm7,%xmm6,%xmm6 shrdl $14,%r13d,%r13d movl %r14d,%r9d movl %ecx,%r12d vpshufb %xmm9,%xmm6,%xmm6 shrdl $9,%r14d,%r14d xorl %ebx,%r13d xorl %edx,%r12d vpaddd %xmm6,%xmm0,%xmm0 shrdl $5,%r13d,%r13d xorl %r9d,%r14d andl %ebx,%r12d vpaddd 0(%rbp),%xmm0,%xmm6 xorl %ebx,%r13d addl 12(%rsp),%r8d movl %r9d,%edi xorl %edx,%r12d shrdl $11,%r14d,%r14d xorl %r10d,%edi addl %r12d,%r8d shrdl $6,%r13d,%r13d andl %edi,%r15d xorl %r9d,%r14d addl %r13d,%r8d xorl %r10d,%r15d shrdl $2,%r14d,%r14d addl %r8d,%eax addl %r15d,%r8d movl %eax,%r13d addl %r8d,%r14d vmovdqa %xmm6,0(%rsp) vpalignr $4,%xmm1,%xmm2,%xmm4 shrdl $14,%r13d,%r13d movl %r14d,%r8d movl %ebx,%r12d vpalignr $4,%xmm3,%xmm0,%xmm7 shrdl $9,%r14d,%r14d xorl %eax,%r13d xorl %ecx,%r12d vpsrld $7,%xmm4,%xmm6 shrdl $5,%r13d,%r13d xorl %r8d,%r14d andl %eax,%r12d vpaddd %xmm7,%xmm1,%xmm1 xorl %eax,%r13d addl 16(%rsp),%edx movl %r8d,%r15d vpsrld $3,%xmm4,%xmm7 xorl %ecx,%r12d shrdl $11,%r14d,%r14d xorl %r9d,%r15d vpslld $14,%xmm4,%xmm5 addl %r12d,%edx shrdl $6,%r13d,%r13d andl %r15d,%edi vpxor %xmm6,%xmm7,%xmm4 xorl %r8d,%r14d addl %r13d,%edx xorl %r9d,%edi vpshufd $250,%xmm0,%xmm7 shrdl $2,%r14d,%r14d addl %edx,%r11d addl %edi,%edx vpsrld $11,%xmm6,%xmm6 movl %r11d,%r13d addl %edx,%r14d shrdl $14,%r13d,%r13d vpxor %xmm5,%xmm4,%xmm4 movl %r14d,%edx movl %eax,%r12d shrdl $9,%r14d,%r14d vpslld $11,%xmm5,%xmm5 xorl %r11d,%r13d xorl %ebx,%r12d shrdl $5,%r13d,%r13d vpxor %xmm6,%xmm4,%xmm4 xorl %edx,%r14d andl %r11d,%r12d xorl %r11d,%r13d vpsrld $10,%xmm7,%xmm6 addl 20(%rsp),%ecx movl %edx,%edi xorl %ebx,%r12d vpxor %xmm5,%xmm4,%xmm4 shrdl $11,%r14d,%r14d xorl %r8d,%edi addl %r12d,%ecx vpsrlq $17,%xmm7,%xmm7 shrdl $6,%r13d,%r13d andl %edi,%r15d xorl %edx,%r14d vpaddd %xmm4,%xmm1,%xmm1 addl %r13d,%ecx xorl %r8d,%r15d shrdl $2,%r14d,%r14d vpxor %xmm7,%xmm6,%xmm6 addl %ecx,%r10d addl %r15d,%ecx movl %r10d,%r13d vpsrlq $2,%xmm7,%xmm7 addl %ecx,%r14d shrdl $14,%r13d,%r13d movl %r14d,%ecx vpxor %xmm7,%xmm6,%xmm6 movl %r11d,%r12d shrdl $9,%r14d,%r14d xorl %r10d,%r13d vpshufb %xmm8,%xmm6,%xmm6 xorl %eax,%r12d shrdl $5,%r13d,%r13d xorl %ecx,%r14d vpaddd %xmm6,%xmm1,%xmm1 andl %r10d,%r12d xorl %r10d,%r13d addl 24(%rsp),%ebx vpshufd $80,%xmm1,%xmm7 movl %ecx,%r15d xorl %eax,%r12d shrdl $11,%r14d,%r14d vpsrld $10,%xmm7,%xmm6 xorl %edx,%r15d addl %r12d,%ebx shrdl $6,%r13d,%r13d vpsrlq $17,%xmm7,%xmm7 andl %r15d,%edi xorl %ecx,%r14d addl %r13d,%ebx vpxor %xmm7,%xmm6,%xmm6 xorl %edx,%edi shrdl $2,%r14d,%r14d addl %ebx,%r9d vpsrlq $2,%xmm7,%xmm7 addl %edi,%ebx movl %r9d,%r13d addl %ebx,%r14d vpxor %xmm7,%xmm6,%xmm6 shrdl $14,%r13d,%r13d movl %r14d,%ebx movl %r10d,%r12d vpshufb %xmm9,%xmm6,%xmm6 shrdl $9,%r14d,%r14d xorl %r9d,%r13d xorl %r11d,%r12d vpaddd %xmm6,%xmm1,%xmm1 shrdl $5,%r13d,%r13d xorl %ebx,%r14d andl %r9d,%r12d vpaddd 32(%rbp),%xmm1,%xmm6 xorl %r9d,%r13d addl 28(%rsp),%eax movl %ebx,%edi xorl %r11d,%r12d shrdl $11,%r14d,%r14d xorl %ecx,%edi addl %r12d,%eax shrdl $6,%r13d,%r13d andl %edi,%r15d xorl %ebx,%r14d addl %r13d,%eax xorl %ecx,%r15d shrdl $2,%r14d,%r14d addl %eax,%r8d addl %r15d,%eax movl %r8d,%r13d addl %eax,%r14d vmovdqa %xmm6,16(%rsp) vpalignr $4,%xmm2,%xmm3,%xmm4 shrdl $14,%r13d,%r13d movl %r14d,%eax movl %r9d,%r12d vpalignr $4,%xmm0,%xmm1,%xmm7 shrdl $9,%r14d,%r14d xorl %r8d,%r13d xorl %r10d,%r12d vpsrld $7,%xmm4,%xmm6 shrdl $5,%r13d,%r13d xorl %eax,%r14d andl %r8d,%r12d vpaddd %xmm7,%xmm2,%xmm2 xorl %r8d,%r13d addl 32(%rsp),%r11d movl %eax,%r15d vpsrld $3,%xmm4,%xmm7 xorl %r10d,%r12d shrdl $11,%r14d,%r14d xorl %ebx,%r15d vpslld $14,%xmm4,%xmm5 addl %r12d,%r11d shrdl $6,%r13d,%r13d andl %r15d,%edi vpxor %xmm6,%xmm7,%xmm4 xorl %eax,%r14d addl %r13d,%r11d xorl %ebx,%edi vpshufd $250,%xmm1,%xmm7 shrdl $2,%r14d,%r14d addl %r11d,%edx addl %edi,%r11d vpsrld $11,%xmm6,%xmm6 movl %edx,%r13d addl %r11d,%r14d shrdl $14,%r13d,%r13d vpxor %xmm5,%xmm4,%xmm4 movl %r14d,%r11d movl %r8d,%r12d shrdl $9,%r14d,%r14d vpslld $11,%xmm5,%xmm5 xorl %edx,%r13d xorl %r9d,%r12d shrdl $5,%r13d,%r13d vpxor %xmm6,%xmm4,%xmm4 xorl %r11d,%r14d andl %edx,%r12d xorl %edx,%r13d vpsrld $10,%xmm7,%xmm6 addl 36(%rsp),%r10d movl %r11d,%edi xorl %r9d,%r12d vpxor %xmm5,%xmm4,%xmm4 shrdl $11,%r14d,%r14d xorl %eax,%edi addl %r12d,%r10d vpsrlq $17,%xmm7,%xmm7 shrdl $6,%r13d,%r13d andl %edi,%r15d xorl %r11d,%r14d vpaddd %xmm4,%xmm2,%xmm2 addl %r13d,%r10d xorl %eax,%r15d shrdl $2,%r14d,%r14d vpxor %xmm7,%xmm6,%xmm6 addl %r10d,%ecx addl %r15d,%r10d movl %ecx,%r13d vpsrlq $2,%xmm7,%xmm7 addl %r10d,%r14d shrdl $14,%r13d,%r13d movl %r14d,%r10d vpxor %xmm7,%xmm6,%xmm6 movl %edx,%r12d shrdl $9,%r14d,%r14d xorl %ecx,%r13d vpshufb %xmm8,%xmm6,%xmm6 xorl %r8d,%r12d shrdl $5,%r13d,%r13d xorl %r10d,%r14d vpaddd %xmm6,%xmm2,%xmm2 andl %ecx,%r12d xorl %ecx,%r13d addl 40(%rsp),%r9d vpshufd $80,%xmm2,%xmm7 movl %r10d,%r15d xorl %r8d,%r12d shrdl $11,%r14d,%r14d vpsrld $10,%xmm7,%xmm6 xorl %r11d,%r15d addl %r12d,%r9d shrdl $6,%r13d,%r13d vpsrlq $17,%xmm7,%xmm7 andl %r15d,%edi xorl %r10d,%r14d addl %r13d,%r9d vpxor %xmm7,%xmm6,%xmm6 xorl %r11d,%edi shrdl $2,%r14d,%r14d addl %r9d,%ebx vpsrlq $2,%xmm7,%xmm7 addl %edi,%r9d movl %ebx,%r13d addl %r9d,%r14d vpxor %xmm7,%xmm6,%xmm6 shrdl $14,%r13d,%r13d movl %r14d,%r9d movl %ecx,%r12d vpshufb %xmm9,%xmm6,%xmm6 shrdl $9,%r14d,%r14d xorl %ebx,%r13d xorl %edx,%r12d vpaddd %xmm6,%xmm2,%xmm2 shrdl $5,%r13d,%r13d xorl %r9d,%r14d andl %ebx,%r12d vpaddd 64(%rbp),%xmm2,%xmm6 xorl %ebx,%r13d addl 44(%rsp),%r8d movl %r9d,%edi xorl %edx,%r12d shrdl $11,%r14d,%r14d xorl %r10d,%edi addl %r12d,%r8d shrdl $6,%r13d,%r13d andl %edi,%r15d xorl %r9d,%r14d addl %r13d,%r8d xorl %r10d,%r15d shrdl $2,%r14d,%r14d addl %r8d,%eax addl %r15d,%r8d movl %eax,%r13d addl %r8d,%r14d vmovdqa %xmm6,32(%rsp) vpalignr $4,%xmm3,%xmm0,%xmm4 shrdl $14,%r13d,%r13d movl %r14d,%r8d movl %ebx,%r12d vpalignr $4,%xmm1,%xmm2,%xmm7 shrdl $9,%r14d,%r14d xorl %eax,%r13d xorl %ecx,%r12d vpsrld $7,%xmm4,%xmm6 shrdl $5,%r13d,%r13d xorl %r8d,%r14d andl %eax,%r12d vpaddd %xmm7,%xmm3,%xmm3 xorl %eax,%r13d addl 48(%rsp),%edx movl %r8d,%r15d vpsrld $3,%xmm4,%xmm7 xorl %ecx,%r12d shrdl $11,%r14d,%r14d xorl %r9d,%r15d vpslld $14,%xmm4,%xmm5 addl %r12d,%edx shrdl $6,%r13d,%r13d andl %r15d,%edi vpxor %xmm6,%xmm7,%xmm4 xorl %r8d,%r14d addl %r13d,%edx xorl %r9d,%edi vpshufd $250,%xmm2,%xmm7 shrdl $2,%r14d,%r14d addl %edx,%r11d addl %edi,%edx vpsrld $11,%xmm6,%xmm6 movl %r11d,%r13d addl %edx,%r14d shrdl $14,%r13d,%r13d vpxor %xmm5,%xmm4,%xmm4 movl %r14d,%edx movl %eax,%r12d shrdl $9,%r14d,%r14d vpslld $11,%xmm5,%xmm5 xorl %r11d,%r13d xorl %ebx,%r12d shrdl $5,%r13d,%r13d vpxor %xmm6,%xmm4,%xmm4 xorl %edx,%r14d andl %r11d,%r12d xorl %r11d,%r13d vpsrld $10,%xmm7,%xmm6 addl 52(%rsp),%ecx movl %edx,%edi xorl %ebx,%r12d vpxor %xmm5,%xmm4,%xmm4 shrdl $11,%r14d,%r14d xorl %r8d,%edi addl %r12d,%ecx vpsrlq $17,%xmm7,%xmm7 shrdl $6,%r13d,%r13d andl %edi,%r15d xorl %edx,%r14d vpaddd %xmm4,%xmm3,%xmm3 addl %r13d,%ecx xorl %r8d,%r15d shrdl $2,%r14d,%r14d vpxor %xmm7,%xmm6,%xmm6 addl %ecx,%r10d addl %r15d,%ecx movl %r10d,%r13d vpsrlq $2,%xmm7,%xmm7 addl %ecx,%r14d shrdl $14,%r13d,%r13d movl %r14d,%ecx vpxor %xmm7,%xmm6,%xmm6 movl %r11d,%r12d shrdl $9,%r14d,%r14d xorl %r10d,%r13d vpshufb %xmm8,%xmm6,%xmm6 xorl %eax,%r12d shrdl $5,%r13d,%r13d xorl %ecx,%r14d vpaddd %xmm6,%xmm3,%xmm3 andl %r10d,%r12d xorl %r10d,%r13d addl 56(%rsp),%ebx vpshufd $80,%xmm3,%xmm7 movl %ecx,%r15d xorl %eax,%r12d shrdl $11,%r14d,%r14d vpsrld $10,%xmm7,%xmm6 xorl %edx,%r15d addl %r12d,%ebx shrdl $6,%r13d,%r13d vpsrlq $17,%xmm7,%xmm7 andl %r15d,%edi xorl %ecx,%r14d addl %r13d,%ebx vpxor %xmm7,%xmm6,%xmm6 xorl %edx,%edi shrdl $2,%r14d,%r14d addl %ebx,%r9d vpsrlq $2,%xmm7,%xmm7 addl %edi,%ebx movl %r9d,%r13d addl %ebx,%r14d vpxor %xmm7,%xmm6,%xmm6 shrdl $14,%r13d,%r13d movl %r14d,%ebx movl %r10d,%r12d vpshufb %xmm9,%xmm6,%xmm6 shrdl $9,%r14d,%r14d xorl %r9d,%r13d xorl %r11d,%r12d vpaddd %xmm6,%xmm3,%xmm3 shrdl $5,%r13d,%r13d xorl %ebx,%r14d andl %r9d,%r12d vpaddd 96(%rbp),%xmm3,%xmm6 xorl %r9d,%r13d addl 60(%rsp),%eax movl %ebx,%edi xorl %r11d,%r12d shrdl $11,%r14d,%r14d xorl %ecx,%edi addl %r12d,%eax shrdl $6,%r13d,%r13d andl %edi,%r15d xorl %ebx,%r14d addl %r13d,%eax xorl %ecx,%r15d shrdl $2,%r14d,%r14d addl %eax,%r8d addl %r15d,%eax movl %r8d,%r13d addl %eax,%r14d vmovdqa %xmm6,48(%rsp) cmpb $0,131(%rbp) jne .Lavx_00_47 shrdl $14,%r13d,%r13d movl %r14d,%eax movl %r9d,%r12d shrdl $9,%r14d,%r14d xorl %r8d,%r13d xorl %r10d,%r12d shrdl $5,%r13d,%r13d xorl %eax,%r14d andl %r8d,%r12d xorl %r8d,%r13d addl 0(%rsp),%r11d movl %eax,%r15d xorl %r10d,%r12d shrdl $11,%r14d,%r14d xorl %ebx,%r15d addl %r12d,%r11d shrdl $6,%r13d,%r13d andl %r15d,%edi xorl %eax,%r14d addl %r13d,%r11d xorl %ebx,%edi shrdl $2,%r14d,%r14d addl %r11d,%edx addl %edi,%r11d movl %edx,%r13d addl %r11d,%r14d shrdl $14,%r13d,%r13d movl %r14d,%r11d movl %r8d,%r12d shrdl $9,%r14d,%r14d xorl %edx,%r13d xorl %r9d,%r12d shrdl $5,%r13d,%r13d xorl %r11d,%r14d andl %edx,%r12d xorl %edx,%r13d addl 4(%rsp),%r10d movl %r11d,%edi xorl %r9d,%r12d shrdl $11,%r14d,%r14d xorl %eax,%edi addl %r12d,%r10d shrdl $6,%r13d,%r13d andl %edi,%r15d xorl %r11d,%r14d addl %r13d,%r10d xorl %eax,%r15d shrdl $2,%r14d,%r14d addl %r10d,%ecx addl %r15d,%r10d movl %ecx,%r13d addl %r10d,%r14d shrdl $14,%r13d,%r13d movl %r14d,%r10d movl %edx,%r12d shrdl $9,%r14d,%r14d xorl %ecx,%r13d xorl %r8d,%r12d shrdl $5,%r13d,%r13d xorl %r10d,%r14d andl %ecx,%r12d xorl %ecx,%r13d addl 8(%rsp),%r9d movl %r10d,%r15d xorl %r8d,%r12d shrdl $11,%r14d,%r14d xorl %r11d,%r15d addl %r12d,%r9d shrdl $6,%r13d,%r13d andl %r15d,%edi xorl %r10d,%r14d addl %r13d,%r9d xorl %r11d,%edi shrdl $2,%r14d,%r14d addl %r9d,%ebx addl %edi,%r9d movl %ebx,%r13d addl %r9d,%r14d shrdl $14,%r13d,%r13d movl %r14d,%r9d movl %ecx,%r12d shrdl $9,%r14d,%r14d xorl %ebx,%r13d xorl %edx,%r12d shrdl $5,%r13d,%r13d xorl %r9d,%r14d andl %ebx,%r12d xorl %ebx,%r13d addl 12(%rsp),%r8d movl %r9d,%edi xorl %edx,%r12d shrdl $11,%r14d,%r14d xorl %r10d,%edi addl %r12d,%r8d shrdl $6,%r13d,%r13d andl %edi,%r15d xorl %r9d,%r14d addl %r13d,%r8d xorl %r10d,%r15d shrdl $2,%r14d,%r14d addl %r8d,%eax addl %r15d,%r8d movl %eax,%r13d addl %r8d,%r14d shrdl $14,%r13d,%r13d movl %r14d,%r8d movl %ebx,%r12d shrdl $9,%r14d,%r14d xorl %eax,%r13d xorl %ecx,%r12d shrdl $5,%r13d,%r13d xorl %r8d,%r14d andl %eax,%r12d xorl %eax,%r13d addl 16(%rsp),%edx movl %r8d,%r15d xorl %ecx,%r12d shrdl $11,%r14d,%r14d xorl %r9d,%r15d addl %r12d,%edx shrdl $6,%r13d,%r13d andl %r15d,%edi xorl %r8d,%r14d addl %r13d,%edx xorl %r9d,%edi shrdl $2,%r14d,%r14d addl %edx,%r11d addl %edi,%edx movl %r11d,%r13d addl %edx,%r14d shrdl $14,%r13d,%r13d movl %r14d,%edx movl %eax,%r12d shrdl $9,%r14d,%r14d xorl %r11d,%r13d xorl %ebx,%r12d shrdl $5,%r13d,%r13d xorl %edx,%r14d andl %r11d,%r12d xorl %r11d,%r13d addl 20(%rsp),%ecx movl %edx,%edi xorl %ebx,%r12d shrdl $11,%r14d,%r14d xorl %r8d,%edi addl %r12d,%ecx shrdl $6,%r13d,%r13d andl %edi,%r15d xorl %edx,%r14d addl %r13d,%ecx xorl %r8d,%r15d shrdl $2,%r14d,%r14d addl %ecx,%r10d addl %r15d,%ecx movl %r10d,%r13d addl %ecx,%r14d shrdl $14,%r13d,%r13d movl %r14d,%ecx movl %r11d,%r12d shrdl $9,%r14d,%r14d xorl %r10d,%r13d xorl %eax,%r12d shrdl $5,%r13d,%r13d xorl %ecx,%r14d andl %r10d,%r12d xorl %r10d,%r13d addl 24(%rsp),%ebx movl %ecx,%r15d xorl %eax,%r12d shrdl $11,%r14d,%r14d xorl %edx,%r15d addl %r12d,%ebx shrdl $6,%r13d,%r13d andl %r15d,%edi xorl %ecx,%r14d addl %r13d,%ebx xorl %edx,%edi shrdl $2,%r14d,%r14d addl %ebx,%r9d addl %edi,%ebx movl %r9d,%r13d addl %ebx,%r14d shrdl $14,%r13d,%r13d movl %r14d,%ebx movl %r10d,%r12d shrdl $9,%r14d,%r14d xorl %r9d,%r13d xorl %r11d,%r12d shrdl $5,%r13d,%r13d xorl %ebx,%r14d andl %r9d,%r12d xorl %r9d,%r13d addl 28(%rsp),%eax movl %ebx,%edi xorl %r11d,%r12d shrdl $11,%r14d,%r14d xorl %ecx,%edi addl %r12d,%eax shrdl $6,%r13d,%r13d andl %edi,%r15d xorl %ebx,%r14d addl %r13d,%eax xorl %ecx,%r15d shrdl $2,%r14d,%r14d addl %eax,%r8d addl %r15d,%eax movl %r8d,%r13d addl %eax,%r14d shrdl $14,%r13d,%r13d movl %r14d,%eax movl %r9d,%r12d shrdl $9,%r14d,%r14d xorl %r8d,%r13d xorl %r10d,%r12d shrdl $5,%r13d,%r13d xorl %eax,%r14d andl %r8d,%r12d xorl %r8d,%r13d addl 32(%rsp),%r11d movl %eax,%r15d xorl %r10d,%r12d shrdl $11,%r14d,%r14d xorl %ebx,%r15d addl %r12d,%r11d shrdl $6,%r13d,%r13d andl %r15d,%edi xorl %eax,%r14d addl %r13d,%r11d xorl %ebx,%edi shrdl $2,%r14d,%r14d addl %r11d,%edx addl %edi,%r11d movl %edx,%r13d addl %r11d,%r14d shrdl $14,%r13d,%r13d movl %r14d,%r11d movl %r8d,%r12d shrdl $9,%r14d,%r14d xorl %edx,%r13d xorl %r9d,%r12d shrdl $5,%r13d,%r13d xorl %r11d,%r14d andl %edx,%r12d xorl %edx,%r13d addl 36(%rsp),%r10d movl %r11d,%edi xorl %r9d,%r12d shrdl $11,%r14d,%r14d xorl %eax,%edi addl %r12d,%r10d shrdl $6,%r13d,%r13d andl %edi,%r15d xorl %r11d,%r14d addl %r13d,%r10d xorl %eax,%r15d shrdl $2,%r14d,%r14d addl %r10d,%ecx addl %r15d,%r10d movl %ecx,%r13d addl %r10d,%r14d shrdl $14,%r13d,%r13d movl %r14d,%r10d movl %edx,%r12d shrdl $9,%r14d,%r14d xorl %ecx,%r13d xorl %r8d,%r12d shrdl $5,%r13d,%r13d xorl %r10d,%r14d andl %ecx,%r12d xorl %ecx,%r13d addl 40(%rsp),%r9d movl %r10d,%r15d xorl %r8d,%r12d shrdl $11,%r14d,%r14d xorl %r11d,%r15d addl %r12d,%r9d shrdl $6,%r13d,%r13d andl %r15d,%edi xorl %r10d,%r14d addl %r13d,%r9d xorl %r11d,%edi shrdl $2,%r14d,%r14d addl %r9d,%ebx addl %edi,%r9d movl %ebx,%r13d addl %r9d,%r14d shrdl $14,%r13d,%r13d movl %r14d,%r9d movl %ecx,%r12d shrdl $9,%r14d,%r14d xorl %ebx,%r13d xorl %edx,%r12d shrdl $5,%r13d,%r13d xorl %r9d,%r14d andl %ebx,%r12d xorl %ebx,%r13d addl 44(%rsp),%r8d movl %r9d,%edi xorl %edx,%r12d shrdl $11,%r14d,%r14d xorl %r10d,%edi addl %r12d,%r8d shrdl $6,%r13d,%r13d andl %edi,%r15d xorl %r9d,%r14d addl %r13d,%r8d xorl %r10d,%r15d shrdl $2,%r14d,%r14d addl %r8d,%eax addl %r15d,%r8d movl %eax,%r13d addl %r8d,%r14d shrdl $14,%r13d,%r13d movl %r14d,%r8d movl %ebx,%r12d shrdl $9,%r14d,%r14d xorl %eax,%r13d xorl %ecx,%r12d shrdl $5,%r13d,%r13d xorl %r8d,%r14d andl %eax,%r12d xorl %eax,%r13d addl 48(%rsp),%edx movl %r8d,%r15d xorl %ecx,%r12d shrdl $11,%r14d,%r14d xorl %r9d,%r15d addl %r12d,%edx shrdl $6,%r13d,%r13d andl %r15d,%edi xorl %r8d,%r14d addl %r13d,%edx xorl %r9d,%edi shrdl $2,%r14d,%r14d addl %edx,%r11d addl %edi,%edx movl %r11d,%r13d addl %edx,%r14d shrdl $14,%r13d,%r13d movl %r14d,%edx movl %eax,%r12d shrdl $9,%r14d,%r14d xorl %r11d,%r13d xorl %ebx,%r12d shrdl $5,%r13d,%r13d xorl %edx,%r14d andl %r11d,%r12d xorl %r11d,%r13d addl 52(%rsp),%ecx movl %edx,%edi xorl %ebx,%r12d shrdl $11,%r14d,%r14d xorl %r8d,%edi addl %r12d,%ecx shrdl $6,%r13d,%r13d andl %edi,%r15d xorl %edx,%r14d addl %r13d,%ecx xorl %r8d,%r15d shrdl $2,%r14d,%r14d addl %ecx,%r10d addl %r15d,%ecx movl %r10d,%r13d addl %ecx,%r14d shrdl $14,%r13d,%r13d movl %r14d,%ecx movl %r11d,%r12d shrdl $9,%r14d,%r14d xorl %r10d,%r13d xorl %eax,%r12d shrdl $5,%r13d,%r13d xorl %ecx,%r14d andl %r10d,%r12d xorl %r10d,%r13d addl 56(%rsp),%ebx movl %ecx,%r15d xorl %eax,%r12d shrdl $11,%r14d,%r14d xorl %edx,%r15d addl %r12d,%ebx shrdl $6,%r13d,%r13d andl %r15d,%edi xorl %ecx,%r14d addl %r13d,%ebx xorl %edx,%edi shrdl $2,%r14d,%r14d addl %ebx,%r9d addl %edi,%ebx movl %r9d,%r13d addl %ebx,%r14d shrdl $14,%r13d,%r13d movl %r14d,%ebx movl %r10d,%r12d shrdl $9,%r14d,%r14d xorl %r9d,%r13d xorl %r11d,%r12d shrdl $5,%r13d,%r13d xorl %ebx,%r14d andl %r9d,%r12d xorl %r9d,%r13d addl 60(%rsp),%eax movl %ebx,%edi xorl %r11d,%r12d shrdl $11,%r14d,%r14d xorl %ecx,%edi addl %r12d,%eax shrdl $6,%r13d,%r13d andl %edi,%r15d xorl %ebx,%r14d addl %r13d,%eax xorl %ecx,%r15d shrdl $2,%r14d,%r14d addl %eax,%r8d addl %r15d,%eax movl %r8d,%r13d addl %eax,%r14d movq 64+0(%rsp),%rdi movl %r14d,%eax addl 0(%rdi),%eax leaq 64(%rsi),%rsi addl 4(%rdi),%ebx addl 8(%rdi),%ecx addl 12(%rdi),%edx addl 16(%rdi),%r8d addl 20(%rdi),%r9d addl 24(%rdi),%r10d addl 28(%rdi),%r11d cmpq 64+16(%rsp),%rsi movl %eax,0(%rdi) movl %ebx,4(%rdi) movl %ecx,8(%rdi) movl %edx,12(%rdi) movl %r8d,16(%rdi) movl %r9d,20(%rdi) movl %r10d,24(%rdi) movl %r11d,28(%rdi) jb .Lloop_avx movq 88(%rsp),%rsi .cfi_def_cfa %rsi,8 vzeroupper movq -48(%rsi),%r15 .cfi_restore %r15 movq -40(%rsi),%r14 .cfi_restore %r14 movq -32(%rsi),%r13 .cfi_restore %r13 movq -24(%rsi),%r12 .cfi_restore %r12 movq -16(%rsi),%rbp .cfi_restore %rbp movq -8(%rsi),%rbx .cfi_restore %rbx leaq (%rsi),%rsp .cfi_def_cfa_register %rsp .Lepilogue_avx: ret .cfi_endproc .size sha256_block_data_order_avx,.-sha256_block_data_order_avx #endif
Vtyeshe/geoai-backend
82,152
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/ring-0.17.13/pregenerated/aesv8-gcm-armv8-ios64.S
// This file is generated from a similarly-named Perl script in the BoringSSL // source tree. Do not edit by hand. #include <ring-core/asm_base.h> #if !defined(OPENSSL_NO_ASM) && defined(OPENSSL_AARCH64) && defined(__APPLE__) #if __ARM_MAX_ARCH__ >= 8 .text .globl _aes_gcm_enc_kernel .private_extern _aes_gcm_enc_kernel .align 4 _aes_gcm_enc_kernel: AARCH64_SIGN_LINK_REGISTER stp x29, x30, [sp, #-128]! mov x29, sp stp x19, x20, [sp, #16] mov x16, x4 mov x8, x5 stp x21, x22, [sp, #32] stp x23, x24, [sp, #48] stp d8, d9, [sp, #64] stp d10, d11, [sp, #80] stp d12, d13, [sp, #96] stp d14, d15, [sp, #112] ldr w17, [x8, #240] add x19, x8, x17, lsl #4 // borrow input_l1 for last key ldp x13, x14, [x19] // load round N keys ldr q31, [x19, #-16] // load round N-1 keys add x4, x0, x1, lsr #3 // end_input_ptr lsr x5, x1, #3 // byte_len mov x15, x5 ldp x10, x11, [x16] // ctr96_b64, ctr96_t32 ld1 { v0.16b}, [x16] // special case vector load initial counter so we can start first AES block as quickly as possible sub x5, x5, #1 // byte_len - 1 ldr q18, [x8, #0] // load rk0 and x5, x5, #0xffffffffffffffc0 // number of bytes to be processed in main loop (at least 1 byte must be handled by tail) ldr q25, [x8, #112] // load rk7 add x5, x5, x0 lsr x12, x11, #32 fmov d2, x10 // CTR block 2 orr w11, w11, w11 rev w12, w12 // rev_ctr32 fmov d1, x10 // CTR block 1 aese v0.16b, v18.16b aesmc v0.16b, v0.16b // AES block 0 - round 0 add w12, w12, #1 // increment rev_ctr32 rev w9, w12 // CTR block 1 fmov d3, x10 // CTR block 3 orr x9, x11, x9, lsl #32 // CTR block 1 add w12, w12, #1 // CTR block 1 ldr q19, [x8, #16] // load rk1 fmov v1.d[1], x9 // CTR block 1 rev w9, w12 // CTR block 2 add w12, w12, #1 // CTR block 2 orr x9, x11, x9, lsl #32 // CTR block 2 ldr q20, [x8, #32] // load rk2 fmov v2.d[1], x9 // CTR block 2 rev w9, w12 // CTR block 3 aese v0.16b, v19.16b aesmc v0.16b, v0.16b // AES block 0 - round 1 orr x9, x11, x9, lsl #32 // CTR block 3 fmov v3.d[1], x9 // CTR block 3 aese v1.16b, v18.16b aesmc v1.16b, v1.16b // AES block 1 - round 0 ldr q21, [x8, #48] // load rk3 aese v0.16b, v20.16b aesmc v0.16b, v0.16b // AES block 0 - round 2 ldr q24, [x8, #96] // load rk6 aese v2.16b, v18.16b aesmc v2.16b, v2.16b // AES block 2 - round 0 ldr q23, [x8, #80] // load rk5 aese v1.16b, v19.16b aesmc v1.16b, v1.16b // AES block 1 - round 1 ldr q14, [x6, #48] // load h3l | h3h ext v14.16b, v14.16b, v14.16b, #8 aese v3.16b, v18.16b aesmc v3.16b, v3.16b // AES block 3 - round 0 aese v2.16b, v19.16b aesmc v2.16b, v2.16b // AES block 2 - round 1 ldr q22, [x8, #64] // load rk4 aese v1.16b, v20.16b aesmc v1.16b, v1.16b // AES block 1 - round 2 ldr q13, [x6, #32] // load h2l | h2h ext v13.16b, v13.16b, v13.16b, #8 aese v3.16b, v19.16b aesmc v3.16b, v3.16b // AES block 3 - round 1 ldr q30, [x8, #192] // load rk12 aese v2.16b, v20.16b aesmc v2.16b, v2.16b // AES block 2 - round 2 ldr q15, [x6, #80] // load h4l | h4h ext v15.16b, v15.16b, v15.16b, #8 aese v1.16b, v21.16b aesmc v1.16b, v1.16b // AES block 1 - round 3 ldr q29, [x8, #176] // load rk11 aese v3.16b, v20.16b aesmc v3.16b, v3.16b // AES block 3 - round 2 ldr q26, [x8, #128] // load rk8 aese v2.16b, v21.16b aesmc v2.16b, v2.16b // AES block 2 - round 3 add w12, w12, #1 // CTR block 3 aese v0.16b, v21.16b aesmc v0.16b, v0.16b // AES block 0 - round 3 aese v3.16b, v21.16b aesmc v3.16b, v3.16b // AES block 3 - round 3 ld1 { v11.16b}, [x3] ext v11.16b, v11.16b, v11.16b, #8 rev64 v11.16b, v11.16b aese v2.16b, v22.16b aesmc v2.16b, v2.16b // AES block 2 - round 4 aese v0.16b, v22.16b aesmc v0.16b, v0.16b // AES block 0 - round 4 aese v1.16b, v22.16b aesmc v1.16b, v1.16b // AES block 1 - round 4 aese v3.16b, v22.16b aesmc v3.16b, v3.16b // AES block 3 - round 4 cmp x17, #12 // setup flags for AES-128/192/256 check aese v0.16b, v23.16b aesmc v0.16b, v0.16b // AES block 0 - round 5 aese v1.16b, v23.16b aesmc v1.16b, v1.16b // AES block 1 - round 5 aese v3.16b, v23.16b aesmc v3.16b, v3.16b // AES block 3 - round 5 aese v2.16b, v23.16b aesmc v2.16b, v2.16b // AES block 2 - round 5 aese v1.16b, v24.16b aesmc v1.16b, v1.16b // AES block 1 - round 6 trn2 v17.2d, v14.2d, v15.2d // h4l | h3l aese v3.16b, v24.16b aesmc v3.16b, v3.16b // AES block 3 - round 6 ldr q27, [x8, #144] // load rk9 aese v0.16b, v24.16b aesmc v0.16b, v0.16b // AES block 0 - round 6 ldr q12, [x6] // load h1l | h1h ext v12.16b, v12.16b, v12.16b, #8 aese v2.16b, v24.16b aesmc v2.16b, v2.16b // AES block 2 - round 6 ldr q28, [x8, #160] // load rk10 aese v1.16b, v25.16b aesmc v1.16b, v1.16b // AES block 1 - round 7 trn1 v9.2d, v14.2d, v15.2d // h4h | h3h aese v0.16b, v25.16b aesmc v0.16b, v0.16b // AES block 0 - round 7 aese v2.16b, v25.16b aesmc v2.16b, v2.16b // AES block 2 - round 7 aese v3.16b, v25.16b aesmc v3.16b, v3.16b // AES block 3 - round 7 trn2 v16.2d, v12.2d, v13.2d // h2l | h1l aese v1.16b, v26.16b aesmc v1.16b, v1.16b // AES block 1 - round 8 aese v2.16b, v26.16b aesmc v2.16b, v2.16b // AES block 2 - round 8 aese v3.16b, v26.16b aesmc v3.16b, v3.16b // AES block 3 - round 8 aese v0.16b, v26.16b aesmc v0.16b, v0.16b // AES block 0 - round 8 b.lt Lenc_finish_first_blocks // branch if AES-128 aese v1.16b, v27.16b aesmc v1.16b, v1.16b // AES block 1 - round 9 aese v2.16b, v27.16b aesmc v2.16b, v2.16b // AES block 2 - round 9 aese v3.16b, v27.16b aesmc v3.16b, v3.16b // AES block 3 - round 9 aese v0.16b, v27.16b aesmc v0.16b, v0.16b // AES block 0 - round 9 aese v1.16b, v28.16b aesmc v1.16b, v1.16b // AES block 1 - round 10 aese v2.16b, v28.16b aesmc v2.16b, v2.16b // AES block 2 - round 10 aese v3.16b, v28.16b aesmc v3.16b, v3.16b // AES block 3 - round 10 aese v0.16b, v28.16b aesmc v0.16b, v0.16b // AES block 0 - round 10 b.eq Lenc_finish_first_blocks // branch if AES-192 aese v1.16b, v29.16b aesmc v1.16b, v1.16b // AES block 1 - round 11 aese v2.16b, v29.16b aesmc v2.16b, v2.16b // AES block 2 - round 11 aese v0.16b, v29.16b aesmc v0.16b, v0.16b // AES block 0 - round 11 aese v3.16b, v29.16b aesmc v3.16b, v3.16b // AES block 3 - round 11 aese v1.16b, v30.16b aesmc v1.16b, v1.16b // AES block 1 - round 12 aese v2.16b, v30.16b aesmc v2.16b, v2.16b // AES block 2 - round 12 aese v0.16b, v30.16b aesmc v0.16b, v0.16b // AES block 0 - round 12 aese v3.16b, v30.16b aesmc v3.16b, v3.16b // AES block 3 - round 12 Lenc_finish_first_blocks: cmp x0, x5 // check if we have <= 4 blocks eor v17.16b, v17.16b, v9.16b // h4k | h3k aese v2.16b, v31.16b // AES block 2 - round N-1 trn1 v8.2d, v12.2d, v13.2d // h2h | h1h aese v1.16b, v31.16b // AES block 1 - round N-1 aese v0.16b, v31.16b // AES block 0 - round N-1 aese v3.16b, v31.16b // AES block 3 - round N-1 eor v16.16b, v16.16b, v8.16b // h2k | h1k b.ge Lenc_tail // handle tail ldp x19, x20, [x0, #16] // AES block 1 - load plaintext rev w9, w12 // CTR block 4 ldp x6, x7, [x0, #0] // AES block 0 - load plaintext ldp x23, x24, [x0, #48] // AES block 3 - load plaintext ldp x21, x22, [x0, #32] // AES block 2 - load plaintext add x0, x0, #64 // AES input_ptr update eor x19, x19, x13 // AES block 1 - round N low eor x20, x20, x14 // AES block 1 - round N high fmov d5, x19 // AES block 1 - mov low eor x6, x6, x13 // AES block 0 - round N low eor x7, x7, x14 // AES block 0 - round N high eor x24, x24, x14 // AES block 3 - round N high fmov d4, x6 // AES block 0 - mov low cmp x0, x5 // check if we have <= 8 blocks fmov v4.d[1], x7 // AES block 0 - mov high eor x23, x23, x13 // AES block 3 - round N low eor x21, x21, x13 // AES block 2 - round N low fmov v5.d[1], x20 // AES block 1 - mov high fmov d6, x21 // AES block 2 - mov low add w12, w12, #1 // CTR block 4 orr x9, x11, x9, lsl #32 // CTR block 4 fmov d7, x23 // AES block 3 - mov low eor x22, x22, x14 // AES block 2 - round N high fmov v6.d[1], x22 // AES block 2 - mov high eor v4.16b, v4.16b, v0.16b // AES block 0 - result fmov d0, x10 // CTR block 4 fmov v0.d[1], x9 // CTR block 4 rev w9, w12 // CTR block 5 add w12, w12, #1 // CTR block 5 eor v5.16b, v5.16b, v1.16b // AES block 1 - result fmov d1, x10 // CTR block 5 orr x9, x11, x9, lsl #32 // CTR block 5 fmov v1.d[1], x9 // CTR block 5 rev w9, w12 // CTR block 6 st1 { v4.16b}, [x2], #16 // AES block 0 - store result fmov v7.d[1], x24 // AES block 3 - mov high orr x9, x11, x9, lsl #32 // CTR block 6 eor v6.16b, v6.16b, v2.16b // AES block 2 - result st1 { v5.16b}, [x2], #16 // AES block 1 - store result add w12, w12, #1 // CTR block 6 fmov d2, x10 // CTR block 6 fmov v2.d[1], x9 // CTR block 6 st1 { v6.16b}, [x2], #16 // AES block 2 - store result rev w9, w12 // CTR block 7 orr x9, x11, x9, lsl #32 // CTR block 7 eor v7.16b, v7.16b, v3.16b // AES block 3 - result st1 { v7.16b}, [x2], #16 // AES block 3 - store result b.ge Lenc_prepretail // do prepretail Lenc_main_loop: // main loop start aese v0.16b, v18.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 0 rev64 v4.16b, v4.16b // GHASH block 4k (only t0 is free) aese v1.16b, v18.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 0 fmov d3, x10 // CTR block 4k+3 aese v2.16b, v18.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 0 ext v11.16b, v11.16b, v11.16b, #8 // PRE 0 aese v0.16b, v19.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 1 fmov v3.d[1], x9 // CTR block 4k+3 aese v1.16b, v19.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 1 ldp x23, x24, [x0, #48] // AES block 4k+7 - load plaintext aese v2.16b, v19.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 1 ldp x21, x22, [x0, #32] // AES block 4k+6 - load plaintext aese v0.16b, v20.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 2 eor v4.16b, v4.16b, v11.16b // PRE 1 aese v1.16b, v20.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 2 aese v3.16b, v18.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 0 eor x23, x23, x13 // AES block 4k+7 - round N low aese v0.16b, v21.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 3 mov d10, v17.d[1] // GHASH block 4k - mid pmull2 v9.1q, v4.2d, v15.2d // GHASH block 4k - high eor x22, x22, x14 // AES block 4k+6 - round N high mov d8, v4.d[1] // GHASH block 4k - mid aese v3.16b, v19.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 1 rev64 v5.16b, v5.16b // GHASH block 4k+1 (t0 and t1 free) aese v0.16b, v22.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 4 pmull v11.1q, v4.1d, v15.1d // GHASH block 4k - low eor v8.8b, v8.8b, v4.8b // GHASH block 4k - mid aese v2.16b, v20.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 2 aese v0.16b, v23.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 5 rev64 v7.16b, v7.16b // GHASH block 4k+3 (t0, t1, t2 and t3 free) pmull2 v4.1q, v5.2d, v14.2d // GHASH block 4k+1 - high pmull v10.1q, v8.1d, v10.1d // GHASH block 4k - mid rev64 v6.16b, v6.16b // GHASH block 4k+2 (t0, t1, and t2 free) pmull v8.1q, v5.1d, v14.1d // GHASH block 4k+1 - low eor v9.16b, v9.16b, v4.16b // GHASH block 4k+1 - high mov d4, v5.d[1] // GHASH block 4k+1 - mid aese v1.16b, v21.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 3 aese v3.16b, v20.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 2 eor v11.16b, v11.16b, v8.16b // GHASH block 4k+1 - low aese v2.16b, v21.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 3 aese v1.16b, v22.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 4 mov d8, v6.d[1] // GHASH block 4k+2 - mid aese v3.16b, v21.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 3 eor v4.8b, v4.8b, v5.8b // GHASH block 4k+1 - mid aese v2.16b, v22.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 4 aese v0.16b, v24.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 6 eor v8.8b, v8.8b, v6.8b // GHASH block 4k+2 - mid aese v3.16b, v22.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 4 pmull v4.1q, v4.1d, v17.1d // GHASH block 4k+1 - mid aese v0.16b, v25.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 7 aese v3.16b, v23.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 5 ins v8.d[1], v8.d[0] // GHASH block 4k+2 - mid aese v1.16b, v23.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 5 aese v0.16b, v26.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 8 aese v2.16b, v23.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 5 aese v1.16b, v24.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 6 eor v10.16b, v10.16b, v4.16b // GHASH block 4k+1 - mid pmull2 v4.1q, v6.2d, v13.2d // GHASH block 4k+2 - high pmull v5.1q, v6.1d, v13.1d // GHASH block 4k+2 - low aese v1.16b, v25.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 7 pmull v6.1q, v7.1d, v12.1d // GHASH block 4k+3 - low eor v9.16b, v9.16b, v4.16b // GHASH block 4k+2 - high aese v3.16b, v24.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 6 ldp x19, x20, [x0, #16] // AES block 4k+5 - load plaintext aese v1.16b, v26.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 8 mov d4, v7.d[1] // GHASH block 4k+3 - mid aese v2.16b, v24.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 6 eor v11.16b, v11.16b, v5.16b // GHASH block 4k+2 - low pmull2 v8.1q, v8.2d, v16.2d // GHASH block 4k+2 - mid pmull2 v5.1q, v7.2d, v12.2d // GHASH block 4k+3 - high eor v4.8b, v4.8b, v7.8b // GHASH block 4k+3 - mid aese v2.16b, v25.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 7 eor x19, x19, x13 // AES block 4k+5 - round N low aese v2.16b, v26.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 8 eor v10.16b, v10.16b, v8.16b // GHASH block 4k+2 - mid aese v3.16b, v25.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 7 eor x21, x21, x13 // AES block 4k+6 - round N low aese v3.16b, v26.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 8 movi v8.8b, #0xc2 pmull v4.1q, v4.1d, v16.1d // GHASH block 4k+3 - mid eor v9.16b, v9.16b, v5.16b // GHASH block 4k+3 - high cmp x17, #12 // setup flags for AES-128/192/256 check fmov d5, x19 // AES block 4k+5 - mov low ldp x6, x7, [x0, #0] // AES block 4k+4 - load plaintext b.lt Lenc_main_loop_continue // branch if AES-128 aese v1.16b, v27.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 9 aese v0.16b, v27.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 9 aese v2.16b, v27.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 9 aese v3.16b, v27.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 9 aese v0.16b, v28.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 10 aese v1.16b, v28.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 10 aese v2.16b, v28.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 10 aese v3.16b, v28.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 10 b.eq Lenc_main_loop_continue // branch if AES-192 aese v0.16b, v29.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 11 aese v1.16b, v29.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 11 aese v2.16b, v29.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 11 aese v3.16b, v29.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 11 aese v1.16b, v30.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 12 aese v0.16b, v30.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 12 aese v2.16b, v30.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 12 aese v3.16b, v30.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 12 Lenc_main_loop_continue: shl d8, d8, #56 // mod_constant eor v11.16b, v11.16b, v6.16b // GHASH block 4k+3 - low eor v10.16b, v10.16b, v4.16b // GHASH block 4k+3 - mid add w12, w12, #1 // CTR block 4k+3 eor v4.16b, v11.16b, v9.16b // MODULO - karatsuba tidy up add x0, x0, #64 // AES input_ptr update pmull v7.1q, v9.1d, v8.1d // MODULO - top 64b align with mid rev w9, w12 // CTR block 4k+8 ext v9.16b, v9.16b, v9.16b, #8 // MODULO - other top alignment eor x6, x6, x13 // AES block 4k+4 - round N low eor v10.16b, v10.16b, v4.16b // MODULO - karatsuba tidy up eor x7, x7, x14 // AES block 4k+4 - round N high fmov d4, x6 // AES block 4k+4 - mov low orr x9, x11, x9, lsl #32 // CTR block 4k+8 eor v7.16b, v9.16b, v7.16b // MODULO - fold into mid eor x20, x20, x14 // AES block 4k+5 - round N high eor x24, x24, x14 // AES block 4k+7 - round N high add w12, w12, #1 // CTR block 4k+8 aese v0.16b, v31.16b // AES block 4k+4 - round N-1 fmov v4.d[1], x7 // AES block 4k+4 - mov high eor v10.16b, v10.16b, v7.16b // MODULO - fold into mid fmov d7, x23 // AES block 4k+7 - mov low aese v1.16b, v31.16b // AES block 4k+5 - round N-1 fmov v5.d[1], x20 // AES block 4k+5 - mov high fmov d6, x21 // AES block 4k+6 - mov low cmp x0, x5 // LOOP CONTROL fmov v6.d[1], x22 // AES block 4k+6 - mov high pmull v9.1q, v10.1d, v8.1d // MODULO - mid 64b align with low eor v4.16b, v4.16b, v0.16b // AES block 4k+4 - result fmov d0, x10 // CTR block 4k+8 fmov v0.d[1], x9 // CTR block 4k+8 rev w9, w12 // CTR block 4k+9 add w12, w12, #1 // CTR block 4k+9 eor v5.16b, v5.16b, v1.16b // AES block 4k+5 - result fmov d1, x10 // CTR block 4k+9 orr x9, x11, x9, lsl #32 // CTR block 4k+9 fmov v1.d[1], x9 // CTR block 4k+9 aese v2.16b, v31.16b // AES block 4k+6 - round N-1 rev w9, w12 // CTR block 4k+10 st1 { v4.16b}, [x2], #16 // AES block 4k+4 - store result orr x9, x11, x9, lsl #32 // CTR block 4k+10 eor v11.16b, v11.16b, v9.16b // MODULO - fold into low fmov v7.d[1], x24 // AES block 4k+7 - mov high ext v10.16b, v10.16b, v10.16b, #8 // MODULO - other mid alignment st1 { v5.16b}, [x2], #16 // AES block 4k+5 - store result add w12, w12, #1 // CTR block 4k+10 aese v3.16b, v31.16b // AES block 4k+7 - round N-1 eor v6.16b, v6.16b, v2.16b // AES block 4k+6 - result fmov d2, x10 // CTR block 4k+10 st1 { v6.16b}, [x2], #16 // AES block 4k+6 - store result fmov v2.d[1], x9 // CTR block 4k+10 rev w9, w12 // CTR block 4k+11 eor v11.16b, v11.16b, v10.16b // MODULO - fold into low orr x9, x11, x9, lsl #32 // CTR block 4k+11 eor v7.16b, v7.16b, v3.16b // AES block 4k+7 - result st1 { v7.16b}, [x2], #16 // AES block 4k+7 - store result b.lt Lenc_main_loop Lenc_prepretail: // PREPRETAIL aese v1.16b, v18.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 0 rev64 v6.16b, v6.16b // GHASH block 4k+2 (t0, t1, and t2 free) aese v2.16b, v18.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 0 fmov d3, x10 // CTR block 4k+3 aese v0.16b, v18.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 0 rev64 v4.16b, v4.16b // GHASH block 4k (only t0 is free) fmov v3.d[1], x9 // CTR block 4k+3 ext v11.16b, v11.16b, v11.16b, #8 // PRE 0 aese v2.16b, v19.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 1 aese v0.16b, v19.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 1 eor v4.16b, v4.16b, v11.16b // PRE 1 rev64 v5.16b, v5.16b // GHASH block 4k+1 (t0 and t1 free) aese v2.16b, v20.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 2 aese v3.16b, v18.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 0 mov d10, v17.d[1] // GHASH block 4k - mid aese v1.16b, v19.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 1 pmull v11.1q, v4.1d, v15.1d // GHASH block 4k - low mov d8, v4.d[1] // GHASH block 4k - mid pmull2 v9.1q, v4.2d, v15.2d // GHASH block 4k - high aese v2.16b, v21.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 3 aese v1.16b, v20.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 2 eor v8.8b, v8.8b, v4.8b // GHASH block 4k - mid aese v0.16b, v20.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 2 aese v3.16b, v19.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 1 aese v1.16b, v21.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 3 pmull v10.1q, v8.1d, v10.1d // GHASH block 4k - mid pmull2 v4.1q, v5.2d, v14.2d // GHASH block 4k+1 - high pmull v8.1q, v5.1d, v14.1d // GHASH block 4k+1 - low aese v3.16b, v20.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 2 eor v9.16b, v9.16b, v4.16b // GHASH block 4k+1 - high mov d4, v5.d[1] // GHASH block 4k+1 - mid aese v0.16b, v21.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 3 eor v11.16b, v11.16b, v8.16b // GHASH block 4k+1 - low aese v3.16b, v21.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 3 eor v4.8b, v4.8b, v5.8b // GHASH block 4k+1 - mid mov d8, v6.d[1] // GHASH block 4k+2 - mid aese v0.16b, v22.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 4 rev64 v7.16b, v7.16b // GHASH block 4k+3 (t0, t1, t2 and t3 free) aese v3.16b, v22.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 4 pmull v4.1q, v4.1d, v17.1d // GHASH block 4k+1 - mid eor v8.8b, v8.8b, v6.8b // GHASH block 4k+2 - mid add w12, w12, #1 // CTR block 4k+3 pmull v5.1q, v6.1d, v13.1d // GHASH block 4k+2 - low aese v3.16b, v23.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 5 aese v2.16b, v22.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 4 eor v10.16b, v10.16b, v4.16b // GHASH block 4k+1 - mid pmull2 v4.1q, v6.2d, v13.2d // GHASH block 4k+2 - high eor v11.16b, v11.16b, v5.16b // GHASH block 4k+2 - low ins v8.d[1], v8.d[0] // GHASH block 4k+2 - mid aese v2.16b, v23.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 5 eor v9.16b, v9.16b, v4.16b // GHASH block 4k+2 - high mov d4, v7.d[1] // GHASH block 4k+3 - mid aese v1.16b, v22.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 4 pmull2 v8.1q, v8.2d, v16.2d // GHASH block 4k+2 - mid eor v4.8b, v4.8b, v7.8b // GHASH block 4k+3 - mid pmull2 v5.1q, v7.2d, v12.2d // GHASH block 4k+3 - high aese v1.16b, v23.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 5 pmull v4.1q, v4.1d, v16.1d // GHASH block 4k+3 - mid eor v10.16b, v10.16b, v8.16b // GHASH block 4k+2 - mid aese v0.16b, v23.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 5 aese v1.16b, v24.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 6 aese v2.16b, v24.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 6 aese v0.16b, v24.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 6 movi v8.8b, #0xc2 aese v3.16b, v24.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 6 aese v1.16b, v25.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 7 eor v9.16b, v9.16b, v5.16b // GHASH block 4k+3 - high aese v0.16b, v25.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 7 aese v3.16b, v25.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 7 shl d8, d8, #56 // mod_constant aese v1.16b, v26.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 8 eor v10.16b, v10.16b, v4.16b // GHASH block 4k+3 - mid pmull v6.1q, v7.1d, v12.1d // GHASH block 4k+3 - low aese v3.16b, v26.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 8 cmp x17, #12 // setup flags for AES-128/192/256 check aese v0.16b, v26.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 8 eor v11.16b, v11.16b, v6.16b // GHASH block 4k+3 - low aese v2.16b, v25.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 7 eor v10.16b, v10.16b, v9.16b // karatsuba tidy up aese v2.16b, v26.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 8 pmull v4.1q, v9.1d, v8.1d ext v9.16b, v9.16b, v9.16b, #8 eor v10.16b, v10.16b, v11.16b b.lt Lenc_finish_prepretail // branch if AES-128 aese v1.16b, v27.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 9 aese v3.16b, v27.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 9 aese v0.16b, v27.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 9 aese v2.16b, v27.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 9 aese v3.16b, v28.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 10 aese v1.16b, v28.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 10 aese v0.16b, v28.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 10 aese v2.16b, v28.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 10 b.eq Lenc_finish_prepretail // branch if AES-192 aese v1.16b, v29.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 11 aese v0.16b, v29.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 11 aese v3.16b, v29.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 11 aese v2.16b, v29.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 11 aese v1.16b, v30.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 12 aese v0.16b, v30.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 12 aese v3.16b, v30.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 12 aese v2.16b, v30.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 12 Lenc_finish_prepretail: eor v10.16b, v10.16b, v4.16b eor v10.16b, v10.16b, v9.16b pmull v4.1q, v10.1d, v8.1d ext v10.16b, v10.16b, v10.16b, #8 aese v1.16b, v31.16b // AES block 4k+5 - round N-1 eor v11.16b, v11.16b, v4.16b aese v3.16b, v31.16b // AES block 4k+7 - round N-1 aese v0.16b, v31.16b // AES block 4k+4 - round N-1 aese v2.16b, v31.16b // AES block 4k+6 - round N-1 eor v11.16b, v11.16b, v10.16b Lenc_tail: // TAIL ext v8.16b, v11.16b, v11.16b, #8 // prepare final partial tag sub x5, x4, x0 // main_end_input_ptr is number of bytes left to process ldp x6, x7, [x0], #16 // AES block 4k+4 - load plaintext eor x6, x6, x13 // AES block 4k+4 - round N low eor x7, x7, x14 // AES block 4k+4 - round N high cmp x5, #48 fmov d4, x6 // AES block 4k+4 - mov low fmov v4.d[1], x7 // AES block 4k+4 - mov high eor v5.16b, v4.16b, v0.16b // AES block 4k+4 - result b.gt Lenc_blocks_more_than_3 cmp x5, #32 mov v3.16b, v2.16b movi v11.8b, #0 movi v9.8b, #0 sub w12, w12, #1 mov v2.16b, v1.16b movi v10.8b, #0 b.gt Lenc_blocks_more_than_2 mov v3.16b, v1.16b sub w12, w12, #1 cmp x5, #16 b.gt Lenc_blocks_more_than_1 sub w12, w12, #1 b Lenc_blocks_less_than_1 Lenc_blocks_more_than_3: // blocks left > 3 st1 { v5.16b}, [x2], #16 // AES final-3 block - store result ldp x6, x7, [x0], #16 // AES final-2 block - load input low & high rev64 v4.16b, v5.16b // GHASH final-3 block eor x6, x6, x13 // AES final-2 block - round N low eor v4.16b, v4.16b, v8.16b // feed in partial tag eor x7, x7, x14 // AES final-2 block - round N high mov d22, v4.d[1] // GHASH final-3 block - mid fmov d5, x6 // AES final-2 block - mov low fmov v5.d[1], x7 // AES final-2 block - mov high eor v22.8b, v22.8b, v4.8b // GHASH final-3 block - mid movi v8.8b, #0 // suppress further partial tag feed in mov d10, v17.d[1] // GHASH final-3 block - mid pmull v11.1q, v4.1d, v15.1d // GHASH final-3 block - low pmull2 v9.1q, v4.2d, v15.2d // GHASH final-3 block - high pmull v10.1q, v22.1d, v10.1d // GHASH final-3 block - mid eor v5.16b, v5.16b, v1.16b // AES final-2 block - result Lenc_blocks_more_than_2: // blocks left > 2 st1 { v5.16b}, [x2], #16 // AES final-2 block - store result ldp x6, x7, [x0], #16 // AES final-1 block - load input low & high rev64 v4.16b, v5.16b // GHASH final-2 block eor x6, x6, x13 // AES final-1 block - round N low eor v4.16b, v4.16b, v8.16b // feed in partial tag fmov d5, x6 // AES final-1 block - mov low eor x7, x7, x14 // AES final-1 block - round N high fmov v5.d[1], x7 // AES final-1 block - mov high movi v8.8b, #0 // suppress further partial tag feed in pmull2 v20.1q, v4.2d, v14.2d // GHASH final-2 block - high mov d22, v4.d[1] // GHASH final-2 block - mid pmull v21.1q, v4.1d, v14.1d // GHASH final-2 block - low eor v22.8b, v22.8b, v4.8b // GHASH final-2 block - mid eor v5.16b, v5.16b, v2.16b // AES final-1 block - result eor v9.16b, v9.16b, v20.16b // GHASH final-2 block - high pmull v22.1q, v22.1d, v17.1d // GHASH final-2 block - mid eor v11.16b, v11.16b, v21.16b // GHASH final-2 block - low eor v10.16b, v10.16b, v22.16b // GHASH final-2 block - mid Lenc_blocks_more_than_1: // blocks left > 1 st1 { v5.16b}, [x2], #16 // AES final-1 block - store result rev64 v4.16b, v5.16b // GHASH final-1 block ldp x6, x7, [x0], #16 // AES final block - load input low & high eor v4.16b, v4.16b, v8.16b // feed in partial tag movi v8.8b, #0 // suppress further partial tag feed in eor x6, x6, x13 // AES final block - round N low mov d22, v4.d[1] // GHASH final-1 block - mid pmull2 v20.1q, v4.2d, v13.2d // GHASH final-1 block - high eor x7, x7, x14 // AES final block - round N high eor v22.8b, v22.8b, v4.8b // GHASH final-1 block - mid eor v9.16b, v9.16b, v20.16b // GHASH final-1 block - high ins v22.d[1], v22.d[0] // GHASH final-1 block - mid fmov d5, x6 // AES final block - mov low fmov v5.d[1], x7 // AES final block - mov high pmull2 v22.1q, v22.2d, v16.2d // GHASH final-1 block - mid pmull v21.1q, v4.1d, v13.1d // GHASH final-1 block - low eor v5.16b, v5.16b, v3.16b // AES final block - result eor v10.16b, v10.16b, v22.16b // GHASH final-1 block - mid eor v11.16b, v11.16b, v21.16b // GHASH final-1 block - low Lenc_blocks_less_than_1: // blocks left <= 1 and x1, x1, #127 // bit_length %= 128 mvn x13, xzr // rkN_l = 0xffffffffffffffff sub x1, x1, #128 // bit_length -= 128 neg x1, x1 // bit_length = 128 - #bits in input (in range [1,128]) ld1 { v18.16b}, [x2] // load existing bytes where the possibly partial last block is to be stored mvn x14, xzr // rkN_h = 0xffffffffffffffff and x1, x1, #127 // bit_length %= 128 lsr x14, x14, x1 // rkN_h is mask for top 64b of last block cmp x1, #64 csel x6, x13, x14, lt csel x7, x14, xzr, lt fmov d0, x6 // ctr0b is mask for last block fmov v0.d[1], x7 and v5.16b, v5.16b, v0.16b // possibly partial last block has zeroes in highest bits rev64 v4.16b, v5.16b // GHASH final block eor v4.16b, v4.16b, v8.16b // feed in partial tag bif v5.16b, v18.16b, v0.16b // insert existing bytes in top end of result before storing pmull2 v20.1q, v4.2d, v12.2d // GHASH final block - high mov d8, v4.d[1] // GHASH final block - mid rev w9, w12 pmull v21.1q, v4.1d, v12.1d // GHASH final block - low eor v9.16b, v9.16b, v20.16b // GHASH final block - high eor v8.8b, v8.8b, v4.8b // GHASH final block - mid pmull v8.1q, v8.1d, v16.1d // GHASH final block - mid eor v11.16b, v11.16b, v21.16b // GHASH final block - low eor v10.16b, v10.16b, v8.16b // GHASH final block - mid movi v8.8b, #0xc2 eor v4.16b, v11.16b, v9.16b // MODULO - karatsuba tidy up shl d8, d8, #56 // mod_constant eor v10.16b, v10.16b, v4.16b // MODULO - karatsuba tidy up pmull v7.1q, v9.1d, v8.1d // MODULO - top 64b align with mid ext v9.16b, v9.16b, v9.16b, #8 // MODULO - other top alignment eor v10.16b, v10.16b, v7.16b // MODULO - fold into mid eor v10.16b, v10.16b, v9.16b // MODULO - fold into mid pmull v9.1q, v10.1d, v8.1d // MODULO - mid 64b align with low ext v10.16b, v10.16b, v10.16b, #8 // MODULO - other mid alignment str w9, [x16, #12] // store the updated counter st1 { v5.16b}, [x2] // store all 16B eor v11.16b, v11.16b, v9.16b // MODULO - fold into low eor v11.16b, v11.16b, v10.16b // MODULO - fold into low ext v11.16b, v11.16b, v11.16b, #8 rev64 v11.16b, v11.16b mov x0, x15 st1 { v11.16b }, [x3] ldp x19, x20, [sp, #16] ldp x21, x22, [sp, #32] ldp x23, x24, [sp, #48] ldp d8, d9, [sp, #64] ldp d10, d11, [sp, #80] ldp d12, d13, [sp, #96] ldp d14, d15, [sp, #112] ldp x29, x30, [sp], #128 AARCH64_VALIDATE_LINK_REGISTER ret .globl _aes_gcm_dec_kernel .private_extern _aes_gcm_dec_kernel .align 4 _aes_gcm_dec_kernel: AARCH64_SIGN_LINK_REGISTER stp x29, x30, [sp, #-128]! mov x29, sp stp x19, x20, [sp, #16] mov x16, x4 mov x8, x5 stp x21, x22, [sp, #32] stp x23, x24, [sp, #48] stp d8, d9, [sp, #64] stp d10, d11, [sp, #80] stp d12, d13, [sp, #96] stp d14, d15, [sp, #112] ldr w17, [x8, #240] add x19, x8, x17, lsl #4 // borrow input_l1 for last key ldp x13, x14, [x19] // load round N keys ldr q31, [x19, #-16] // load round N-1 keys lsr x5, x1, #3 // byte_len mov x15, x5 ldp x10, x11, [x16] // ctr96_b64, ctr96_t32 ldr q26, [x8, #128] // load rk8 sub x5, x5, #1 // byte_len - 1 ldr q25, [x8, #112] // load rk7 and x5, x5, #0xffffffffffffffc0 // number of bytes to be processed in main loop (at least 1 byte must be handled by tail) add x4, x0, x1, lsr #3 // end_input_ptr ldr q24, [x8, #96] // load rk6 lsr x12, x11, #32 ldr q23, [x8, #80] // load rk5 orr w11, w11, w11 ldr q21, [x8, #48] // load rk3 add x5, x5, x0 rev w12, w12 // rev_ctr32 add w12, w12, #1 // increment rev_ctr32 fmov d3, x10 // CTR block 3 rev w9, w12 // CTR block 1 add w12, w12, #1 // CTR block 1 fmov d1, x10 // CTR block 1 orr x9, x11, x9, lsl #32 // CTR block 1 ld1 { v0.16b}, [x16] // special case vector load initial counter so we can start first AES block as quickly as possible fmov v1.d[1], x9 // CTR block 1 rev w9, w12 // CTR block 2 add w12, w12, #1 // CTR block 2 fmov d2, x10 // CTR block 2 orr x9, x11, x9, lsl #32 // CTR block 2 fmov v2.d[1], x9 // CTR block 2 rev w9, w12 // CTR block 3 orr x9, x11, x9, lsl #32 // CTR block 3 ldr q18, [x8, #0] // load rk0 fmov v3.d[1], x9 // CTR block 3 add w12, w12, #1 // CTR block 3 ldr q22, [x8, #64] // load rk4 ldr q19, [x8, #16] // load rk1 aese v0.16b, v18.16b aesmc v0.16b, v0.16b // AES block 0 - round 0 ldr q14, [x6, #48] // load h3l | h3h ext v14.16b, v14.16b, v14.16b, #8 aese v3.16b, v18.16b aesmc v3.16b, v3.16b // AES block 3 - round 0 ldr q15, [x6, #80] // load h4l | h4h ext v15.16b, v15.16b, v15.16b, #8 aese v1.16b, v18.16b aesmc v1.16b, v1.16b // AES block 1 - round 0 ldr q13, [x6, #32] // load h2l | h2h ext v13.16b, v13.16b, v13.16b, #8 aese v2.16b, v18.16b aesmc v2.16b, v2.16b // AES block 2 - round 0 ldr q20, [x8, #32] // load rk2 aese v0.16b, v19.16b aesmc v0.16b, v0.16b // AES block 0 - round 1 aese v1.16b, v19.16b aesmc v1.16b, v1.16b // AES block 1 - round 1 ld1 { v11.16b}, [x3] ext v11.16b, v11.16b, v11.16b, #8 rev64 v11.16b, v11.16b aese v2.16b, v19.16b aesmc v2.16b, v2.16b // AES block 2 - round 1 ldr q27, [x8, #144] // load rk9 aese v3.16b, v19.16b aesmc v3.16b, v3.16b // AES block 3 - round 1 ldr q30, [x8, #192] // load rk12 aese v0.16b, v20.16b aesmc v0.16b, v0.16b // AES block 0 - round 2 ldr q12, [x6] // load h1l | h1h ext v12.16b, v12.16b, v12.16b, #8 aese v2.16b, v20.16b aesmc v2.16b, v2.16b // AES block 2 - round 2 ldr q28, [x8, #160] // load rk10 aese v3.16b, v20.16b aesmc v3.16b, v3.16b // AES block 3 - round 2 aese v0.16b, v21.16b aesmc v0.16b, v0.16b // AES block 0 - round 3 aese v1.16b, v20.16b aesmc v1.16b, v1.16b // AES block 1 - round 2 aese v3.16b, v21.16b aesmc v3.16b, v3.16b // AES block 3 - round 3 aese v0.16b, v22.16b aesmc v0.16b, v0.16b // AES block 0 - round 4 aese v2.16b, v21.16b aesmc v2.16b, v2.16b // AES block 2 - round 3 aese v1.16b, v21.16b aesmc v1.16b, v1.16b // AES block 1 - round 3 aese v3.16b, v22.16b aesmc v3.16b, v3.16b // AES block 3 - round 4 aese v2.16b, v22.16b aesmc v2.16b, v2.16b // AES block 2 - round 4 aese v1.16b, v22.16b aesmc v1.16b, v1.16b // AES block 1 - round 4 aese v3.16b, v23.16b aesmc v3.16b, v3.16b // AES block 3 - round 5 aese v0.16b, v23.16b aesmc v0.16b, v0.16b // AES block 0 - round 5 aese v1.16b, v23.16b aesmc v1.16b, v1.16b // AES block 1 - round 5 aese v2.16b, v23.16b aesmc v2.16b, v2.16b // AES block 2 - round 5 aese v0.16b, v24.16b aesmc v0.16b, v0.16b // AES block 0 - round 6 aese v3.16b, v24.16b aesmc v3.16b, v3.16b // AES block 3 - round 6 cmp x17, #12 // setup flags for AES-128/192/256 check aese v1.16b, v24.16b aesmc v1.16b, v1.16b // AES block 1 - round 6 aese v2.16b, v24.16b aesmc v2.16b, v2.16b // AES block 2 - round 6 aese v0.16b, v25.16b aesmc v0.16b, v0.16b // AES block 0 - round 7 aese v1.16b, v25.16b aesmc v1.16b, v1.16b // AES block 1 - round 7 aese v3.16b, v25.16b aesmc v3.16b, v3.16b // AES block 3 - round 7 aese v0.16b, v26.16b aesmc v0.16b, v0.16b // AES block 0 - round 8 aese v2.16b, v25.16b aesmc v2.16b, v2.16b // AES block 2 - round 7 aese v3.16b, v26.16b aesmc v3.16b, v3.16b // AES block 3 - round 8 aese v1.16b, v26.16b aesmc v1.16b, v1.16b // AES block 1 - round 8 ldr q29, [x8, #176] // load rk11 aese v2.16b, v26.16b aesmc v2.16b, v2.16b // AES block 2 - round 8 b.lt Ldec_finish_first_blocks // branch if AES-128 aese v0.16b, v27.16b aesmc v0.16b, v0.16b // AES block 0 - round 9 aese v1.16b, v27.16b aesmc v1.16b, v1.16b // AES block 1 - round 9 aese v3.16b, v27.16b aesmc v3.16b, v3.16b // AES block 3 - round 9 aese v2.16b, v27.16b aesmc v2.16b, v2.16b // AES block 2 - round 9 aese v0.16b, v28.16b aesmc v0.16b, v0.16b // AES block 0 - round 10 aese v1.16b, v28.16b aesmc v1.16b, v1.16b // AES block 1 - round 10 aese v3.16b, v28.16b aesmc v3.16b, v3.16b // AES block 3 - round 10 aese v2.16b, v28.16b aesmc v2.16b, v2.16b // AES block 2 - round 10 b.eq Ldec_finish_first_blocks // branch if AES-192 aese v0.16b, v29.16b aesmc v0.16b, v0.16b // AES block 0 - round 11 aese v3.16b, v29.16b aesmc v3.16b, v3.16b // AES block 3 - round 11 aese v1.16b, v29.16b aesmc v1.16b, v1.16b // AES block 1 - round 11 aese v2.16b, v29.16b aesmc v2.16b, v2.16b // AES block 2 - round 11 aese v1.16b, v30.16b aesmc v1.16b, v1.16b // AES block 1 - round 12 aese v0.16b, v30.16b aesmc v0.16b, v0.16b // AES block 0 - round 12 aese v2.16b, v30.16b aesmc v2.16b, v2.16b // AES block 2 - round 12 aese v3.16b, v30.16b aesmc v3.16b, v3.16b // AES block 3 - round 12 Ldec_finish_first_blocks: cmp x0, x5 // check if we have <= 4 blocks trn1 v9.2d, v14.2d, v15.2d // h4h | h3h trn2 v17.2d, v14.2d, v15.2d // h4l | h3l trn1 v8.2d, v12.2d, v13.2d // h2h | h1h trn2 v16.2d, v12.2d, v13.2d // h2l | h1l eor v17.16b, v17.16b, v9.16b // h4k | h3k aese v1.16b, v31.16b // AES block 1 - round N-1 aese v2.16b, v31.16b // AES block 2 - round N-1 eor v16.16b, v16.16b, v8.16b // h2k | h1k aese v3.16b, v31.16b // AES block 3 - round N-1 aese v0.16b, v31.16b // AES block 0 - round N-1 b.ge Ldec_tail // handle tail ldr q4, [x0, #0] // AES block 0 - load ciphertext ldr q5, [x0, #16] // AES block 1 - load ciphertext rev w9, w12 // CTR block 4 eor v0.16b, v4.16b, v0.16b // AES block 0 - result eor v1.16b, v5.16b, v1.16b // AES block 1 - result rev64 v5.16b, v5.16b // GHASH block 1 ldr q7, [x0, #48] // AES block 3 - load ciphertext mov x7, v0.d[1] // AES block 0 - mov high mov x6, v0.d[0] // AES block 0 - mov low rev64 v4.16b, v4.16b // GHASH block 0 add w12, w12, #1 // CTR block 4 fmov d0, x10 // CTR block 4 orr x9, x11, x9, lsl #32 // CTR block 4 fmov v0.d[1], x9 // CTR block 4 rev w9, w12 // CTR block 5 add w12, w12, #1 // CTR block 5 mov x19, v1.d[0] // AES block 1 - mov low orr x9, x11, x9, lsl #32 // CTR block 5 mov x20, v1.d[1] // AES block 1 - mov high eor x7, x7, x14 // AES block 0 - round N high eor x6, x6, x13 // AES block 0 - round N low stp x6, x7, [x2], #16 // AES block 0 - store result fmov d1, x10 // CTR block 5 ldr q6, [x0, #32] // AES block 2 - load ciphertext add x0, x0, #64 // AES input_ptr update fmov v1.d[1], x9 // CTR block 5 rev w9, w12 // CTR block 6 add w12, w12, #1 // CTR block 6 eor x19, x19, x13 // AES block 1 - round N low orr x9, x11, x9, lsl #32 // CTR block 6 eor x20, x20, x14 // AES block 1 - round N high stp x19, x20, [x2], #16 // AES block 1 - store result eor v2.16b, v6.16b, v2.16b // AES block 2 - result cmp x0, x5 // check if we have <= 8 blocks b.ge Ldec_prepretail // do prepretail Ldec_main_loop: // main loop start mov x21, v2.d[0] // AES block 4k+2 - mov low ext v11.16b, v11.16b, v11.16b, #8 // PRE 0 eor v3.16b, v7.16b, v3.16b // AES block 4k+3 - result aese v0.16b, v18.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 0 mov x22, v2.d[1] // AES block 4k+2 - mov high aese v1.16b, v18.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 0 fmov d2, x10 // CTR block 4k+6 fmov v2.d[1], x9 // CTR block 4k+6 eor v4.16b, v4.16b, v11.16b // PRE 1 rev w9, w12 // CTR block 4k+7 aese v0.16b, v19.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 1 mov x24, v3.d[1] // AES block 4k+3 - mov high aese v1.16b, v19.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 1 mov x23, v3.d[0] // AES block 4k+3 - mov low pmull2 v9.1q, v4.2d, v15.2d // GHASH block 4k - high mov d8, v4.d[1] // GHASH block 4k - mid fmov d3, x10 // CTR block 4k+7 aese v0.16b, v20.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 2 orr x9, x11, x9, lsl #32 // CTR block 4k+7 aese v2.16b, v18.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 0 fmov v3.d[1], x9 // CTR block 4k+7 aese v1.16b, v20.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 2 eor v8.8b, v8.8b, v4.8b // GHASH block 4k - mid aese v0.16b, v21.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 3 eor x22, x22, x14 // AES block 4k+2 - round N high aese v2.16b, v19.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 1 mov d10, v17.d[1] // GHASH block 4k - mid aese v1.16b, v21.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 3 rev64 v6.16b, v6.16b // GHASH block 4k+2 aese v3.16b, v18.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 0 eor x21, x21, x13 // AES block 4k+2 - round N low aese v2.16b, v20.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 2 stp x21, x22, [x2], #16 // AES block 4k+2 - store result pmull v11.1q, v4.1d, v15.1d // GHASH block 4k - low pmull2 v4.1q, v5.2d, v14.2d // GHASH block 4k+1 - high aese v2.16b, v21.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 3 rev64 v7.16b, v7.16b // GHASH block 4k+3 pmull v10.1q, v8.1d, v10.1d // GHASH block 4k - mid eor x23, x23, x13 // AES block 4k+3 - round N low pmull v8.1q, v5.1d, v14.1d // GHASH block 4k+1 - low eor x24, x24, x14 // AES block 4k+3 - round N high eor v9.16b, v9.16b, v4.16b // GHASH block 4k+1 - high aese v2.16b, v22.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 4 aese v3.16b, v19.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 1 mov d4, v5.d[1] // GHASH block 4k+1 - mid aese v0.16b, v22.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 4 eor v11.16b, v11.16b, v8.16b // GHASH block 4k+1 - low aese v2.16b, v23.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 5 add w12, w12, #1 // CTR block 4k+7 aese v3.16b, v20.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 2 mov d8, v6.d[1] // GHASH block 4k+2 - mid aese v1.16b, v22.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 4 eor v4.8b, v4.8b, v5.8b // GHASH block 4k+1 - mid pmull v5.1q, v6.1d, v13.1d // GHASH block 4k+2 - low aese v3.16b, v21.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 3 eor v8.8b, v8.8b, v6.8b // GHASH block 4k+2 - mid aese v1.16b, v23.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 5 aese v0.16b, v23.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 5 eor v11.16b, v11.16b, v5.16b // GHASH block 4k+2 - low pmull v4.1q, v4.1d, v17.1d // GHASH block 4k+1 - mid rev w9, w12 // CTR block 4k+8 aese v1.16b, v24.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 6 ins v8.d[1], v8.d[0] // GHASH block 4k+2 - mid aese v0.16b, v24.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 6 add w12, w12, #1 // CTR block 4k+8 aese v3.16b, v22.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 4 aese v1.16b, v25.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 7 eor v10.16b, v10.16b, v4.16b // GHASH block 4k+1 - mid aese v0.16b, v25.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 7 pmull2 v4.1q, v6.2d, v13.2d // GHASH block 4k+2 - high mov d6, v7.d[1] // GHASH block 4k+3 - mid aese v3.16b, v23.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 5 pmull2 v8.1q, v8.2d, v16.2d // GHASH block 4k+2 - mid aese v0.16b, v26.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 8 eor v9.16b, v9.16b, v4.16b // GHASH block 4k+2 - high aese v3.16b, v24.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 6 pmull v4.1q, v7.1d, v12.1d // GHASH block 4k+3 - low orr x9, x11, x9, lsl #32 // CTR block 4k+8 eor v10.16b, v10.16b, v8.16b // GHASH block 4k+2 - mid pmull2 v5.1q, v7.2d, v12.2d // GHASH block 4k+3 - high cmp x17, #12 // setup flags for AES-128/192/256 check eor v6.8b, v6.8b, v7.8b // GHASH block 4k+3 - mid aese v1.16b, v26.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 8 aese v2.16b, v24.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 6 eor v9.16b, v9.16b, v5.16b // GHASH block 4k+3 - high pmull v6.1q, v6.1d, v16.1d // GHASH block 4k+3 - mid movi v8.8b, #0xc2 aese v2.16b, v25.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 7 eor v11.16b, v11.16b, v4.16b // GHASH block 4k+3 - low aese v3.16b, v25.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 7 shl d8, d8, #56 // mod_constant aese v2.16b, v26.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 8 eor v10.16b, v10.16b, v6.16b // GHASH block 4k+3 - mid aese v3.16b, v26.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 8 b.lt Ldec_main_loop_continue // branch if AES-128 aese v0.16b, v27.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 9 aese v2.16b, v27.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 9 aese v1.16b, v27.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 9 aese v3.16b, v27.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 9 aese v0.16b, v28.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 10 aese v1.16b, v28.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 10 aese v2.16b, v28.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 10 aese v3.16b, v28.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 10 b.eq Ldec_main_loop_continue // branch if AES-192 aese v0.16b, v29.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 11 aese v1.16b, v29.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 11 aese v2.16b, v29.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 11 aese v3.16b, v29.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 11 aese v0.16b, v30.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 12 aese v1.16b, v30.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 12 aese v2.16b, v30.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 12 aese v3.16b, v30.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 12 Ldec_main_loop_continue: pmull v7.1q, v9.1d, v8.1d // MODULO - top 64b align with mid eor v6.16b, v11.16b, v9.16b // MODULO - karatsuba tidy up ldr q4, [x0, #0] // AES block 4k+4 - load ciphertext aese v0.16b, v31.16b // AES block 4k+4 - round N-1 ext v9.16b, v9.16b, v9.16b, #8 // MODULO - other top alignment eor v10.16b, v10.16b, v6.16b // MODULO - karatsuba tidy up ldr q5, [x0, #16] // AES block 4k+5 - load ciphertext eor v0.16b, v4.16b, v0.16b // AES block 4k+4 - result stp x23, x24, [x2], #16 // AES block 4k+3 - store result eor v10.16b, v10.16b, v7.16b // MODULO - fold into mid ldr q7, [x0, #48] // AES block 4k+7 - load ciphertext ldr q6, [x0, #32] // AES block 4k+6 - load ciphertext mov x7, v0.d[1] // AES block 4k+4 - mov high eor v10.16b, v10.16b, v9.16b // MODULO - fold into mid aese v1.16b, v31.16b // AES block 4k+5 - round N-1 add x0, x0, #64 // AES input_ptr update mov x6, v0.d[0] // AES block 4k+4 - mov low fmov d0, x10 // CTR block 4k+8 fmov v0.d[1], x9 // CTR block 4k+8 pmull v8.1q, v10.1d, v8.1d // MODULO - mid 64b align with low eor v1.16b, v5.16b, v1.16b // AES block 4k+5 - result rev w9, w12 // CTR block 4k+9 aese v2.16b, v31.16b // AES block 4k+6 - round N-1 orr x9, x11, x9, lsl #32 // CTR block 4k+9 cmp x0, x5 // LOOP CONTROL add w12, w12, #1 // CTR block 4k+9 eor x6, x6, x13 // AES block 4k+4 - round N low eor x7, x7, x14 // AES block 4k+4 - round N high mov x20, v1.d[1] // AES block 4k+5 - mov high eor v2.16b, v6.16b, v2.16b // AES block 4k+6 - result eor v11.16b, v11.16b, v8.16b // MODULO - fold into low mov x19, v1.d[0] // AES block 4k+5 - mov low fmov d1, x10 // CTR block 4k+9 ext v10.16b, v10.16b, v10.16b, #8 // MODULO - other mid alignment fmov v1.d[1], x9 // CTR block 4k+9 rev w9, w12 // CTR block 4k+10 add w12, w12, #1 // CTR block 4k+10 aese v3.16b, v31.16b // AES block 4k+7 - round N-1 orr x9, x11, x9, lsl #32 // CTR block 4k+10 rev64 v5.16b, v5.16b // GHASH block 4k+5 eor x20, x20, x14 // AES block 4k+5 - round N high stp x6, x7, [x2], #16 // AES block 4k+4 - store result eor x19, x19, x13 // AES block 4k+5 - round N low stp x19, x20, [x2], #16 // AES block 4k+5 - store result rev64 v4.16b, v4.16b // GHASH block 4k+4 eor v11.16b, v11.16b, v10.16b // MODULO - fold into low b.lt Ldec_main_loop Ldec_prepretail: // PREPRETAIL ext v11.16b, v11.16b, v11.16b, #8 // PRE 0 mov x21, v2.d[0] // AES block 4k+2 - mov low eor v3.16b, v7.16b, v3.16b // AES block 4k+3 - result aese v0.16b, v18.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 0 mov x22, v2.d[1] // AES block 4k+2 - mov high aese v1.16b, v18.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 0 fmov d2, x10 // CTR block 4k+6 fmov v2.d[1], x9 // CTR block 4k+6 rev w9, w12 // CTR block 4k+7 eor v4.16b, v4.16b, v11.16b // PRE 1 rev64 v6.16b, v6.16b // GHASH block 4k+2 orr x9, x11, x9, lsl #32 // CTR block 4k+7 mov x23, v3.d[0] // AES block 4k+3 - mov low aese v1.16b, v19.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 1 mov x24, v3.d[1] // AES block 4k+3 - mov high pmull v11.1q, v4.1d, v15.1d // GHASH block 4k - low mov d8, v4.d[1] // GHASH block 4k - mid fmov d3, x10 // CTR block 4k+7 pmull2 v9.1q, v4.2d, v15.2d // GHASH block 4k - high fmov v3.d[1], x9 // CTR block 4k+7 aese v2.16b, v18.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 0 mov d10, v17.d[1] // GHASH block 4k - mid aese v0.16b, v19.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 1 eor v8.8b, v8.8b, v4.8b // GHASH block 4k - mid pmull2 v4.1q, v5.2d, v14.2d // GHASH block 4k+1 - high aese v2.16b, v19.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 1 rev64 v7.16b, v7.16b // GHASH block 4k+3 aese v3.16b, v18.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 0 pmull v10.1q, v8.1d, v10.1d // GHASH block 4k - mid eor v9.16b, v9.16b, v4.16b // GHASH block 4k+1 - high pmull v8.1q, v5.1d, v14.1d // GHASH block 4k+1 - low aese v3.16b, v19.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 1 mov d4, v5.d[1] // GHASH block 4k+1 - mid aese v0.16b, v20.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 2 aese v1.16b, v20.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 2 eor v11.16b, v11.16b, v8.16b // GHASH block 4k+1 - low aese v2.16b, v20.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 2 aese v0.16b, v21.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 3 mov d8, v6.d[1] // GHASH block 4k+2 - mid aese v3.16b, v20.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 2 eor v4.8b, v4.8b, v5.8b // GHASH block 4k+1 - mid pmull v5.1q, v6.1d, v13.1d // GHASH block 4k+2 - low aese v0.16b, v22.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 4 aese v3.16b, v21.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 3 eor v8.8b, v8.8b, v6.8b // GHASH block 4k+2 - mid pmull v4.1q, v4.1d, v17.1d // GHASH block 4k+1 - mid aese v0.16b, v23.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 5 eor v11.16b, v11.16b, v5.16b // GHASH block 4k+2 - low aese v3.16b, v22.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 4 pmull2 v5.1q, v7.2d, v12.2d // GHASH block 4k+3 - high eor v10.16b, v10.16b, v4.16b // GHASH block 4k+1 - mid pmull2 v4.1q, v6.2d, v13.2d // GHASH block 4k+2 - high aese v3.16b, v23.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 5 ins v8.d[1], v8.d[0] // GHASH block 4k+2 - mid aese v2.16b, v21.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 3 aese v1.16b, v21.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 3 eor v9.16b, v9.16b, v4.16b // GHASH block 4k+2 - high pmull v4.1q, v7.1d, v12.1d // GHASH block 4k+3 - low aese v2.16b, v22.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 4 mov d6, v7.d[1] // GHASH block 4k+3 - mid aese v1.16b, v22.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 4 pmull2 v8.1q, v8.2d, v16.2d // GHASH block 4k+2 - mid aese v2.16b, v23.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 5 eor v6.8b, v6.8b, v7.8b // GHASH block 4k+3 - mid aese v1.16b, v23.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 5 aese v3.16b, v24.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 6 eor v10.16b, v10.16b, v8.16b // GHASH block 4k+2 - mid aese v2.16b, v24.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 6 aese v0.16b, v24.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 6 movi v8.8b, #0xc2 aese v1.16b, v24.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 6 eor v11.16b, v11.16b, v4.16b // GHASH block 4k+3 - low pmull v6.1q, v6.1d, v16.1d // GHASH block 4k+3 - mid aese v3.16b, v25.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 7 cmp x17, #12 // setup flags for AES-128/192/256 check eor v9.16b, v9.16b, v5.16b // GHASH block 4k+3 - high aese v1.16b, v25.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 7 aese v0.16b, v25.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 7 eor v10.16b, v10.16b, v6.16b // GHASH block 4k+3 - mid aese v3.16b, v26.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 8 aese v2.16b, v25.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 7 eor v6.16b, v11.16b, v9.16b // MODULO - karatsuba tidy up aese v1.16b, v26.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 8 aese v0.16b, v26.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 8 shl d8, d8, #56 // mod_constant aese v2.16b, v26.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 8 b.lt Ldec_finish_prepretail // branch if AES-128 aese v1.16b, v27.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 9 aese v2.16b, v27.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 9 aese v3.16b, v27.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 9 aese v0.16b, v27.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 9 aese v2.16b, v28.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 10 aese v3.16b, v28.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 10 aese v0.16b, v28.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 10 aese v1.16b, v28.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 10 b.eq Ldec_finish_prepretail // branch if AES-192 aese v2.16b, v29.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 11 aese v0.16b, v29.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 11 aese v1.16b, v29.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 11 aese v2.16b, v30.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 12 aese v3.16b, v29.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 11 aese v1.16b, v30.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 12 aese v0.16b, v30.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 12 aese v3.16b, v30.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 12 Ldec_finish_prepretail: eor v10.16b, v10.16b, v6.16b // MODULO - karatsuba tidy up pmull v7.1q, v9.1d, v8.1d // MODULO - top 64b align with mid ext v9.16b, v9.16b, v9.16b, #8 // MODULO - other top alignment eor v10.16b, v10.16b, v7.16b // MODULO - fold into mid eor x22, x22, x14 // AES block 4k+2 - round N high eor x23, x23, x13 // AES block 4k+3 - round N low eor v10.16b, v10.16b, v9.16b // MODULO - fold into mid add w12, w12, #1 // CTR block 4k+7 eor x21, x21, x13 // AES block 4k+2 - round N low pmull v8.1q, v10.1d, v8.1d // MODULO - mid 64b align with low eor x24, x24, x14 // AES block 4k+3 - round N high stp x21, x22, [x2], #16 // AES block 4k+2 - store result ext v10.16b, v10.16b, v10.16b, #8 // MODULO - other mid alignment stp x23, x24, [x2], #16 // AES block 4k+3 - store result eor v11.16b, v11.16b, v8.16b // MODULO - fold into low aese v1.16b, v31.16b // AES block 4k+5 - round N-1 aese v0.16b, v31.16b // AES block 4k+4 - round N-1 aese v3.16b, v31.16b // AES block 4k+7 - round N-1 aese v2.16b, v31.16b // AES block 4k+6 - round N-1 eor v11.16b, v11.16b, v10.16b // MODULO - fold into low Ldec_tail: // TAIL sub x5, x4, x0 // main_end_input_ptr is number of bytes left to process ld1 { v5.16b}, [x0], #16 // AES block 4k+4 - load ciphertext eor v0.16b, v5.16b, v0.16b // AES block 4k+4 - result mov x6, v0.d[0] // AES block 4k+4 - mov low mov x7, v0.d[1] // AES block 4k+4 - mov high ext v8.16b, v11.16b, v11.16b, #8 // prepare final partial tag cmp x5, #48 eor x6, x6, x13 // AES block 4k+4 - round N low eor x7, x7, x14 // AES block 4k+4 - round N high b.gt Ldec_blocks_more_than_3 sub w12, w12, #1 mov v3.16b, v2.16b movi v10.8b, #0 movi v11.8b, #0 cmp x5, #32 movi v9.8b, #0 mov v2.16b, v1.16b b.gt Ldec_blocks_more_than_2 sub w12, w12, #1 mov v3.16b, v1.16b cmp x5, #16 b.gt Ldec_blocks_more_than_1 sub w12, w12, #1 b Ldec_blocks_less_than_1 Ldec_blocks_more_than_3: // blocks left > 3 rev64 v4.16b, v5.16b // GHASH final-3 block ld1 { v5.16b}, [x0], #16 // AES final-2 block - load ciphertext stp x6, x7, [x2], #16 // AES final-3 block - store result mov d10, v17.d[1] // GHASH final-3 block - mid eor v4.16b, v4.16b, v8.16b // feed in partial tag eor v0.16b, v5.16b, v1.16b // AES final-2 block - result mov d22, v4.d[1] // GHASH final-3 block - mid mov x6, v0.d[0] // AES final-2 block - mov low mov x7, v0.d[1] // AES final-2 block - mov high eor v22.8b, v22.8b, v4.8b // GHASH final-3 block - mid movi v8.8b, #0 // suppress further partial tag feed in pmull2 v9.1q, v4.2d, v15.2d // GHASH final-3 block - high pmull v10.1q, v22.1d, v10.1d // GHASH final-3 block - mid eor x6, x6, x13 // AES final-2 block - round N low pmull v11.1q, v4.1d, v15.1d // GHASH final-3 block - low eor x7, x7, x14 // AES final-2 block - round N high Ldec_blocks_more_than_2: // blocks left > 2 rev64 v4.16b, v5.16b // GHASH final-2 block ld1 { v5.16b}, [x0], #16 // AES final-1 block - load ciphertext eor v4.16b, v4.16b, v8.16b // feed in partial tag stp x6, x7, [x2], #16 // AES final-2 block - store result eor v0.16b, v5.16b, v2.16b // AES final-1 block - result mov d22, v4.d[1] // GHASH final-2 block - mid pmull v21.1q, v4.1d, v14.1d // GHASH final-2 block - low pmull2 v20.1q, v4.2d, v14.2d // GHASH final-2 block - high eor v22.8b, v22.8b, v4.8b // GHASH final-2 block - mid mov x6, v0.d[0] // AES final-1 block - mov low mov x7, v0.d[1] // AES final-1 block - mov high eor v11.16b, v11.16b, v21.16b // GHASH final-2 block - low movi v8.8b, #0 // suppress further partial tag feed in pmull v22.1q, v22.1d, v17.1d // GHASH final-2 block - mid eor v9.16b, v9.16b, v20.16b // GHASH final-2 block - high eor x6, x6, x13 // AES final-1 block - round N low eor v10.16b, v10.16b, v22.16b // GHASH final-2 block - mid eor x7, x7, x14 // AES final-1 block - round N high Ldec_blocks_more_than_1: // blocks left > 1 stp x6, x7, [x2], #16 // AES final-1 block - store result rev64 v4.16b, v5.16b // GHASH final-1 block ld1 { v5.16b}, [x0], #16 // AES final block - load ciphertext eor v4.16b, v4.16b, v8.16b // feed in partial tag movi v8.8b, #0 // suppress further partial tag feed in mov d22, v4.d[1] // GHASH final-1 block - mid eor v0.16b, v5.16b, v3.16b // AES final block - result pmull2 v20.1q, v4.2d, v13.2d // GHASH final-1 block - high eor v22.8b, v22.8b, v4.8b // GHASH final-1 block - mid pmull v21.1q, v4.1d, v13.1d // GHASH final-1 block - low mov x6, v0.d[0] // AES final block - mov low ins v22.d[1], v22.d[0] // GHASH final-1 block - mid mov x7, v0.d[1] // AES final block - mov high pmull2 v22.1q, v22.2d, v16.2d // GHASH final-1 block - mid eor x6, x6, x13 // AES final block - round N low eor v11.16b, v11.16b, v21.16b // GHASH final-1 block - low eor v9.16b, v9.16b, v20.16b // GHASH final-1 block - high eor v10.16b, v10.16b, v22.16b // GHASH final-1 block - mid eor x7, x7, x14 // AES final block - round N high Ldec_blocks_less_than_1: // blocks left <= 1 and x1, x1, #127 // bit_length %= 128 mvn x14, xzr // rkN_h = 0xffffffffffffffff sub x1, x1, #128 // bit_length -= 128 mvn x13, xzr // rkN_l = 0xffffffffffffffff ldp x4, x5, [x2] // load existing bytes we need to not overwrite neg x1, x1 // bit_length = 128 - #bits in input (in range [1,128]) and x1, x1, #127 // bit_length %= 128 lsr x14, x14, x1 // rkN_h is mask for top 64b of last block cmp x1, #64 csel x9, x13, x14, lt csel x10, x14, xzr, lt fmov d0, x9 // ctr0b is mask for last block and x6, x6, x9 mov v0.d[1], x10 bic x4, x4, x9 // mask out low existing bytes rev w9, w12 bic x5, x5, x10 // mask out high existing bytes orr x6, x6, x4 and x7, x7, x10 orr x7, x7, x5 and v5.16b, v5.16b, v0.16b // possibly partial last block has zeroes in highest bits rev64 v4.16b, v5.16b // GHASH final block eor v4.16b, v4.16b, v8.16b // feed in partial tag pmull v21.1q, v4.1d, v12.1d // GHASH final block - low mov d8, v4.d[1] // GHASH final block - mid eor v8.8b, v8.8b, v4.8b // GHASH final block - mid pmull2 v20.1q, v4.2d, v12.2d // GHASH final block - high pmull v8.1q, v8.1d, v16.1d // GHASH final block - mid eor v9.16b, v9.16b, v20.16b // GHASH final block - high eor v11.16b, v11.16b, v21.16b // GHASH final block - low eor v10.16b, v10.16b, v8.16b // GHASH final block - mid movi v8.8b, #0xc2 eor v6.16b, v11.16b, v9.16b // MODULO - karatsuba tidy up shl d8, d8, #56 // mod_constant eor v10.16b, v10.16b, v6.16b // MODULO - karatsuba tidy up pmull v7.1q, v9.1d, v8.1d // MODULO - top 64b align with mid ext v9.16b, v9.16b, v9.16b, #8 // MODULO - other top alignment eor v10.16b, v10.16b, v7.16b // MODULO - fold into mid eor v10.16b, v10.16b, v9.16b // MODULO - fold into mid pmull v8.1q, v10.1d, v8.1d // MODULO - mid 64b align with low ext v10.16b, v10.16b, v10.16b, #8 // MODULO - other mid alignment eor v11.16b, v11.16b, v8.16b // MODULO - fold into low stp x6, x7, [x2] str w9, [x16, #12] // store the updated counter eor v11.16b, v11.16b, v10.16b // MODULO - fold into low ext v11.16b, v11.16b, v11.16b, #8 rev64 v11.16b, v11.16b mov x0, x15 st1 { v11.16b }, [x3] ldp x19, x20, [sp, #16] ldp x21, x22, [sp, #32] ldp x23, x24, [sp, #48] ldp d8, d9, [sp, #64] ldp d10, d11, [sp, #80] ldp d12, d13, [sp, #96] ldp d14, d15, [sp, #112] ldp x29, x30, [sp], #128 AARCH64_VALIDATE_LINK_REGISTER ret #endif #endif // !OPENSSL_NO_ASM && defined(OPENSSL_AARCH64) && defined(__APPLE__)
Vtyeshe/geoai-backend
17,785
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/ring-0.17.13/pregenerated/bsaes-armv7-linux32.S
// This file is generated from a similarly-named Perl script in the BoringSSL // source tree. Do not edit by hand. #include <ring-core/asm_base.h> #if !defined(OPENSSL_NO_ASM) && defined(OPENSSL_ARM) && defined(__ELF__) @ Copyright 2012-2016 The OpenSSL Project Authors. All Rights Reserved. @ @ Licensed under the Apache License, Version 2.0 (the "License"); @ you may not use this file except in compliance with the License. @ You may obtain a copy of the License at @ @ https://www.apache.org/licenses/LICENSE-2.0 @ @ Unless required by applicable law or agreed to in writing, software @ distributed under the License is distributed on an "AS IS" BASIS, @ WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. @ See the License for the specific language governing permissions and @ limitations under the License. @ ==================================================================== @ Written by Andy Polyakov <appro@openssl.org> for the OpenSSL @ project. @ @ Specific modes and adaptation for Linux kernel by Ard Biesheuvel @ of Linaro. @ ==================================================================== @ Bit-sliced AES for ARM NEON @ @ February 2012. @ @ This implementation is direct adaptation of bsaes-x86_64 module for @ ARM NEON. Except that this module is endian-neutral [in sense that @ it can be compiled for either endianness] by courtesy of vld1.8's @ neutrality. Initial version doesn't implement interface to OpenSSL, @ only low-level primitives and unsupported entry points, just enough @ to collect performance results, which for Cortex-A8 core are: @ @ encrypt 19.5 cycles per byte processed with 128-bit key @ decrypt 22.1 cycles per byte processed with 128-bit key @ key conv. 440 cycles per 128-bit key/0.18 of 8x block @ @ Snapdragon S4 encrypts byte in 17.6 cycles and decrypts in 19.7, @ which is [much] worse than anticipated (for further details see @ http://www.openssl.org/~appro/Snapdragon-S4.html). @ @ Cortex-A15 manages in 14.2/16.1 cycles [when integer-only code @ manages in 20.0 cycles]. @ @ When comparing to x86_64 results keep in mind that NEON unit is @ [mostly] single-issue and thus can't [fully] benefit from @ instruction-level parallelism. And when comparing to aes-armv4 @ results keep in mind key schedule conversion overhead (see @ bsaes-x86_64.pl for further details)... @ @ <appro@openssl.org> @ April-August 2013 @ Add CBC, CTR and XTS subroutines and adapt for kernel use; courtesy of Ard. #ifndef __KERNEL__ # define VFP_ABI_PUSH vstmdb sp!,{d8-d15} # define VFP_ABI_POP vldmia sp!,{d8-d15} # define VFP_ABI_FRAME 0x40 #else # define VFP_ABI_PUSH # define VFP_ABI_POP # define VFP_ABI_FRAME 0 # define BSAES_ASM_EXTENDED_KEY # define __ARM_MAX_ARCH__ 7 #endif #ifdef __thumb__ # define adrl adr #endif #if __ARM_MAX_ARCH__>=7 .arch armv7-a .fpu neon .text .syntax unified @ ARMv7-capable assembler is expected to handle this #if defined(__thumb2__) && !defined(__APPLE__) .thumb #else .code 32 # undef __thumb2__ #endif .type _bsaes_const,%object .align 6 _bsaes_const: .LM0ISR:@ InvShiftRows constants .quad 0x0a0e0206070b0f03, 0x0004080c0d010509 .LISR: .quad 0x0504070602010003, 0x0f0e0d0c080b0a09 .LISRM0: .quad 0x01040b0e0205080f, 0x0306090c00070a0d .LM0SR:@ ShiftRows constants .quad 0x0a0e02060f03070b, 0x0004080c05090d01 .LSR: .quad 0x0504070600030201, 0x0f0e0d0c0a09080b .LSRM0: .quad 0x0304090e00050a0f, 0x01060b0c0207080d .LM0: .quad 0x02060a0e03070b0f, 0x0004080c0105090d .LREVM0SR: .quad 0x090d01050c000408, 0x03070b0f060a0e02 .byte 66,105,116,45,115,108,105,99,101,100,32,65,69,83,32,102,111,114,32,78,69,79,78,44,32,67,82,89,80,84,79,71,65,77,83,32,98,121,32,60,97,112,112,114,111,64,111,112,101,110,115,115,108,46,111,114,103,62,0 .align 2 .align 6 .size _bsaes_const,.-_bsaes_const .type _bsaes_encrypt8,%function .align 4 _bsaes_encrypt8: adr r6,. vldmia r4!, {q9} @ round 0 key #if defined(__thumb2__) || defined(__APPLE__) adr r6,.LM0SR #else sub r6,r6,#_bsaes_encrypt8-.LM0SR #endif vldmia r6!, {q8} @ .LM0SR _bsaes_encrypt8_alt: veor q10, q0, q9 @ xor with round0 key veor q11, q1, q9 vtbl.8 d0, {q10}, d16 vtbl.8 d1, {q10}, d17 veor q12, q2, q9 vtbl.8 d2, {q11}, d16 vtbl.8 d3, {q11}, d17 veor q13, q3, q9 vtbl.8 d4, {q12}, d16 vtbl.8 d5, {q12}, d17 veor q14, q4, q9 vtbl.8 d6, {q13}, d16 vtbl.8 d7, {q13}, d17 veor q15, q5, q9 vtbl.8 d8, {q14}, d16 vtbl.8 d9, {q14}, d17 veor q10, q6, q9 vtbl.8 d10, {q15}, d16 vtbl.8 d11, {q15}, d17 veor q11, q7, q9 vtbl.8 d12, {q10}, d16 vtbl.8 d13, {q10}, d17 vtbl.8 d14, {q11}, d16 vtbl.8 d15, {q11}, d17 _bsaes_encrypt8_bitslice: vmov.i8 q8,#0x55 @ compose .LBS0 vmov.i8 q9,#0x33 @ compose .LBS1 vshr.u64 q10, q6, #1 vshr.u64 q11, q4, #1 veor q10, q10, q7 veor q11, q11, q5 vand q10, q10, q8 vand q11, q11, q8 veor q7, q7, q10 vshl.u64 q10, q10, #1 veor q5, q5, q11 vshl.u64 q11, q11, #1 veor q6, q6, q10 veor q4, q4, q11 vshr.u64 q10, q2, #1 vshr.u64 q11, q0, #1 veor q10, q10, q3 veor q11, q11, q1 vand q10, q10, q8 vand q11, q11, q8 veor q3, q3, q10 vshl.u64 q10, q10, #1 veor q1, q1, q11 vshl.u64 q11, q11, #1 veor q2, q2, q10 veor q0, q0, q11 vmov.i8 q8,#0x0f @ compose .LBS2 vshr.u64 q10, q5, #2 vshr.u64 q11, q4, #2 veor q10, q10, q7 veor q11, q11, q6 vand q10, q10, q9 vand q11, q11, q9 veor q7, q7, q10 vshl.u64 q10, q10, #2 veor q6, q6, q11 vshl.u64 q11, q11, #2 veor q5, q5, q10 veor q4, q4, q11 vshr.u64 q10, q1, #2 vshr.u64 q11, q0, #2 veor q10, q10, q3 veor q11, q11, q2 vand q10, q10, q9 vand q11, q11, q9 veor q3, q3, q10 vshl.u64 q10, q10, #2 veor q2, q2, q11 vshl.u64 q11, q11, #2 veor q1, q1, q10 veor q0, q0, q11 vshr.u64 q10, q3, #4 vshr.u64 q11, q2, #4 veor q10, q10, q7 veor q11, q11, q6 vand q10, q10, q8 vand q11, q11, q8 veor q7, q7, q10 vshl.u64 q10, q10, #4 veor q6, q6, q11 vshl.u64 q11, q11, #4 veor q3, q3, q10 veor q2, q2, q11 vshr.u64 q10, q1, #4 vshr.u64 q11, q0, #4 veor q10, q10, q5 veor q11, q11, q4 vand q10, q10, q8 vand q11, q11, q8 veor q5, q5, q10 vshl.u64 q10, q10, #4 veor q4, q4, q11 vshl.u64 q11, q11, #4 veor q1, q1, q10 veor q0, q0, q11 sub r5,r5,#1 b .Lenc_sbox .align 4 .Lenc_loop: vldmia r4!, {q8,q9,q10,q11} veor q8, q8, q0 veor q9, q9, q1 vtbl.8 d0, {q8}, d24 vtbl.8 d1, {q8}, d25 vldmia r4!, {q8} veor q10, q10, q2 vtbl.8 d2, {q9}, d24 vtbl.8 d3, {q9}, d25 vldmia r4!, {q9} veor q11, q11, q3 vtbl.8 d4, {q10}, d24 vtbl.8 d5, {q10}, d25 vldmia r4!, {q10} vtbl.8 d6, {q11}, d24 vtbl.8 d7, {q11}, d25 vldmia r4!, {q11} veor q8, q8, q4 veor q9, q9, q5 vtbl.8 d8, {q8}, d24 vtbl.8 d9, {q8}, d25 veor q10, q10, q6 vtbl.8 d10, {q9}, d24 vtbl.8 d11, {q9}, d25 veor q11, q11, q7 vtbl.8 d12, {q10}, d24 vtbl.8 d13, {q10}, d25 vtbl.8 d14, {q11}, d24 vtbl.8 d15, {q11}, d25 .Lenc_sbox: veor q2, q2, q1 veor q5, q5, q6 veor q3, q3, q0 veor q6, q6, q2 veor q5, q5, q0 veor q6, q6, q3 veor q3, q3, q7 veor q7, q7, q5 veor q3, q3, q4 veor q4, q4, q5 veor q2, q2, q7 veor q3, q3, q1 veor q1, q1, q5 veor q11, q7, q4 veor q10, q1, q2 veor q9, q5, q3 veor q13, q2, q4 vmov q8, q10 veor q12, q6, q0 vorr q10, q10, q9 veor q15, q11, q8 vand q14, q11, q12 vorr q11, q11, q12 veor q12, q12, q9 vand q8, q8, q9 veor q9, q3, q0 vand q15, q15, q12 vand q13, q13, q9 veor q9, q7, q1 veor q12, q5, q6 veor q11, q11, q13 veor q10, q10, q13 vand q13, q9, q12 vorr q9, q9, q12 veor q11, q11, q15 veor q8, q8, q13 veor q10, q10, q14 veor q9, q9, q15 veor q8, q8, q14 vand q12, q2, q3 veor q9, q9, q14 vand q13, q4, q0 vand q14, q1, q5 vorr q15, q7, q6 veor q11, q11, q12 veor q9, q9, q14 veor q8, q8, q15 veor q10, q10, q13 @ Inv_GF16 0, 1, 2, 3, s0, s1, s2, s3 @ new smaller inversion vand q14, q11, q9 vmov q12, q8 veor q13, q10, q14 veor q15, q8, q14 veor q14, q8, q14 @ q14=q15 vbsl q13, q9, q8 vbsl q15, q11, q10 veor q11, q11, q10 vbsl q12, q13, q14 vbsl q8, q14, q13 vand q14, q12, q15 veor q9, q9, q8 veor q14, q14, q11 veor q12, q6, q0 veor q8, q5, q3 veor q10, q15, q14 vand q10, q10, q6 veor q6, q6, q5 vand q11, q5, q15 vand q6, q6, q14 veor q5, q11, q10 veor q6, q6, q11 veor q15, q15, q13 veor q14, q14, q9 veor q11, q15, q14 veor q10, q13, q9 vand q11, q11, q12 vand q10, q10, q0 veor q12, q12, q8 veor q0, q0, q3 vand q8, q8, q15 vand q3, q3, q13 vand q12, q12, q14 vand q0, q0, q9 veor q8, q8, q12 veor q0, q0, q3 veor q12, q12, q11 veor q3, q3, q10 veor q6, q6, q12 veor q0, q0, q12 veor q5, q5, q8 veor q3, q3, q8 veor q12, q7, q4 veor q8, q1, q2 veor q11, q15, q14 veor q10, q13, q9 vand q11, q11, q12 vand q10, q10, q4 veor q12, q12, q8 veor q4, q4, q2 vand q8, q8, q15 vand q2, q2, q13 vand q12, q12, q14 vand q4, q4, q9 veor q8, q8, q12 veor q4, q4, q2 veor q12, q12, q11 veor q2, q2, q10 veor q15, q15, q13 veor q14, q14, q9 veor q10, q15, q14 vand q10, q10, q7 veor q7, q7, q1 vand q11, q1, q15 vand q7, q7, q14 veor q1, q11, q10 veor q7, q7, q11 veor q7, q7, q12 veor q4, q4, q12 veor q1, q1, q8 veor q2, q2, q8 veor q7, q7, q0 veor q1, q1, q6 veor q6, q6, q0 veor q4, q4, q7 veor q0, q0, q1 veor q1, q1, q5 veor q5, q5, q2 veor q2, q2, q3 veor q3, q3, q5 veor q4, q4, q5 veor q6, q6, q3 subs r5,r5,#1 bcc .Lenc_done vext.8 q8, q0, q0, #12 @ x0 <<< 32 vext.8 q9, q1, q1, #12 veor q0, q0, q8 @ x0 ^ (x0 <<< 32) vext.8 q10, q4, q4, #12 veor q1, q1, q9 vext.8 q11, q6, q6, #12 veor q4, q4, q10 vext.8 q12, q3, q3, #12 veor q6, q6, q11 vext.8 q13, q7, q7, #12 veor q3, q3, q12 vext.8 q14, q2, q2, #12 veor q7, q7, q13 vext.8 q15, q5, q5, #12 veor q2, q2, q14 veor q9, q9, q0 veor q5, q5, q15 vext.8 q0, q0, q0, #8 @ (x0 ^ (x0 <<< 32)) <<< 64) veor q10, q10, q1 veor q8, q8, q5 veor q9, q9, q5 vext.8 q1, q1, q1, #8 veor q13, q13, q3 veor q0, q0, q8 veor q14, q14, q7 veor q1, q1, q9 vext.8 q8, q3, q3, #8 veor q12, q12, q6 vext.8 q9, q7, q7, #8 veor q15, q15, q2 vext.8 q3, q6, q6, #8 veor q11, q11, q4 vext.8 q7, q5, q5, #8 veor q12, q12, q5 vext.8 q6, q2, q2, #8 veor q11, q11, q5 vext.8 q2, q4, q4, #8 veor q5, q9, q13 veor q4, q8, q12 veor q3, q3, q11 veor q7, q7, q15 veor q6, q6, q14 @ vmov q4, q8 veor q2, q2, q10 @ vmov q5, q9 vldmia r6, {q12} @ .LSR ite eq @ Thumb2 thing, samity check in ARM addeq r6,r6,#0x10 bne .Lenc_loop vldmia r6, {q12} @ .LSRM0 b .Lenc_loop .align 4 .Lenc_done: vmov.i8 q8,#0x55 @ compose .LBS0 vmov.i8 q9,#0x33 @ compose .LBS1 vshr.u64 q10, q2, #1 vshr.u64 q11, q3, #1 veor q10, q10, q5 veor q11, q11, q7 vand q10, q10, q8 vand q11, q11, q8 veor q5, q5, q10 vshl.u64 q10, q10, #1 veor q7, q7, q11 vshl.u64 q11, q11, #1 veor q2, q2, q10 veor q3, q3, q11 vshr.u64 q10, q4, #1 vshr.u64 q11, q0, #1 veor q10, q10, q6 veor q11, q11, q1 vand q10, q10, q8 vand q11, q11, q8 veor q6, q6, q10 vshl.u64 q10, q10, #1 veor q1, q1, q11 vshl.u64 q11, q11, #1 veor q4, q4, q10 veor q0, q0, q11 vmov.i8 q8,#0x0f @ compose .LBS2 vshr.u64 q10, q7, #2 vshr.u64 q11, q3, #2 veor q10, q10, q5 veor q11, q11, q2 vand q10, q10, q9 vand q11, q11, q9 veor q5, q5, q10 vshl.u64 q10, q10, #2 veor q2, q2, q11 vshl.u64 q11, q11, #2 veor q7, q7, q10 veor q3, q3, q11 vshr.u64 q10, q1, #2 vshr.u64 q11, q0, #2 veor q10, q10, q6 veor q11, q11, q4 vand q10, q10, q9 vand q11, q11, q9 veor q6, q6, q10 vshl.u64 q10, q10, #2 veor q4, q4, q11 vshl.u64 q11, q11, #2 veor q1, q1, q10 veor q0, q0, q11 vshr.u64 q10, q6, #4 vshr.u64 q11, q4, #4 veor q10, q10, q5 veor q11, q11, q2 vand q10, q10, q8 vand q11, q11, q8 veor q5, q5, q10 vshl.u64 q10, q10, #4 veor q2, q2, q11 vshl.u64 q11, q11, #4 veor q6, q6, q10 veor q4, q4, q11 vshr.u64 q10, q1, #4 vshr.u64 q11, q0, #4 veor q10, q10, q7 veor q11, q11, q3 vand q10, q10, q8 vand q11, q11, q8 veor q7, q7, q10 vshl.u64 q10, q10, #4 veor q3, q3, q11 vshl.u64 q11, q11, #4 veor q1, q1, q10 veor q0, q0, q11 vldmia r4, {q8} @ last round key veor q4, q4, q8 veor q6, q6, q8 veor q3, q3, q8 veor q7, q7, q8 veor q2, q2, q8 veor q5, q5, q8 veor q0, q0, q8 veor q1, q1, q8 bx lr .size _bsaes_encrypt8,.-_bsaes_encrypt8 .type _bsaes_key_convert,%function .align 4 _bsaes_key_convert: adr r6,. vld1.8 {q7}, [r4]! @ load round 0 key #if defined(__thumb2__) || defined(__APPLE__) adr r6,.LM0 #else sub r6,r6,#_bsaes_key_convert-.LM0 #endif vld1.8 {q15}, [r4]! @ load round 1 key vmov.i8 q8, #0x01 @ bit masks vmov.i8 q9, #0x02 vmov.i8 q10, #0x04 vmov.i8 q11, #0x08 vmov.i8 q12, #0x10 vmov.i8 q13, #0x20 vldmia r6, {q14} @ .LM0 #ifdef __ARMEL__ vrev32.8 q7, q7 vrev32.8 q15, q15 #endif sub r5,r5,#1 vstmia r12!, {q7} @ save round 0 key b .Lkey_loop .align 4 .Lkey_loop: vtbl.8 d14,{q15},d28 vtbl.8 d15,{q15},d29 vmov.i8 q6, #0x40 vmov.i8 q15, #0x80 vtst.8 q0, q7, q8 vtst.8 q1, q7, q9 vtst.8 q2, q7, q10 vtst.8 q3, q7, q11 vtst.8 q4, q7, q12 vtst.8 q5, q7, q13 vtst.8 q6, q7, q6 vtst.8 q7, q7, q15 vld1.8 {q15}, [r4]! @ load next round key vmvn q0, q0 @ "pnot" vmvn q1, q1 vmvn q5, q5 vmvn q6, q6 #ifdef __ARMEL__ vrev32.8 q15, q15 #endif subs r5,r5,#1 vstmia r12!,{q0,q1,q2,q3,q4,q5,q6,q7} @ write bit-sliced round key bne .Lkey_loop vmov.i8 q7,#0x63 @ compose .L63 @ don't save last round key bx lr .size _bsaes_key_convert,.-_bsaes_key_convert .globl bsaes_ctr32_encrypt_blocks .hidden bsaes_ctr32_encrypt_blocks .type bsaes_ctr32_encrypt_blocks,%function .align 5 bsaes_ctr32_encrypt_blocks: @ In OpenSSL, short inputs fall back to aes_nohw_* here. We patch this @ out to retain a constant-time implementation. mov ip, sp stmdb sp!, {r4,r5,r6,r7,r8,r9,r10, lr} VFP_ABI_PUSH ldr r8, [ip] @ ctr is 1st arg on the stack sub sp, sp, #0x10 @ scratch space to carry over the ctr mov r9, sp @ save sp ldr r10, [r3, #240] @ get # of rounds #ifndef BSAES_ASM_EXTENDED_KEY @ allocate the key schedule on the stack sub r12, sp, r10, lsl#7 @ 128 bytes per inner round key add r12, #96 @ size of bit-sliced key schedule @ populate the key schedule mov r4, r3 @ pass key mov r5, r10 @ pass # of rounds mov sp, r12 @ sp is sp bl _bsaes_key_convert veor q7,q7,q15 @ fix up last round key vstmia r12, {q7} @ save last round key vld1.8 {q0}, [r8] @ load counter #ifdef __APPLE__ mov r8, #:lower16:(.LREVM0SR-.LM0) add r8, r6, r8 #else add r8, r6, #.LREVM0SR-.LM0 @ borrow r8 #endif vldmia sp, {q4} @ load round0 key #else ldr r12, [r3, #244] eors r12, #1 beq 0f @ populate the key schedule str r12, [r3, #244] mov r4, r3 @ pass key mov r5, r10 @ pass # of rounds add r12, r3, #248 @ pass key schedule bl _bsaes_key_convert veor q7,q7,q15 @ fix up last round key vstmia r12, {q7} @ save last round key .align 2 add r12, r3, #248 vld1.8 {q0}, [r8] @ load counter adrl r8, .LREVM0SR @ borrow r8 vldmia r12, {q4} @ load round0 key sub sp, #0x10 @ place for adjusted round0 key #endif vmov.i32 q8,#1 @ compose 1<<96 veor q9,q9,q9 vrev32.8 q0,q0 vext.8 q8,q9,q8,#4 vrev32.8 q4,q4 vadd.u32 q9,q8,q8 @ compose 2<<96 vstmia sp, {q4} @ save adjusted round0 key b .Lctr_enc_loop .align 4 .Lctr_enc_loop: vadd.u32 q10, q8, q9 @ compose 3<<96 vadd.u32 q1, q0, q8 @ +1 vadd.u32 q2, q0, q9 @ +2 vadd.u32 q3, q0, q10 @ +3 vadd.u32 q4, q1, q10 vadd.u32 q5, q2, q10 vadd.u32 q6, q3, q10 vadd.u32 q7, q4, q10 vadd.u32 q10, q5, q10 @ next counter @ Borrow prologue from _bsaes_encrypt8 to use the opportunity @ to flip byte order in 32-bit counter vldmia sp, {q9} @ load round0 key #ifndef BSAES_ASM_EXTENDED_KEY add r4, sp, #0x10 @ pass next round key #else add r4, r3, #264 #endif vldmia r8, {q8} @ .LREVM0SR mov r5, r10 @ pass rounds vstmia r9, {q10} @ save next counter #ifdef __APPLE__ mov r6, #:lower16:(.LREVM0SR-.LSR) sub r6, r8, r6 #else sub r6, r8, #.LREVM0SR-.LSR @ pass constants #endif bl _bsaes_encrypt8_alt subs r2, r2, #8 blo .Lctr_enc_loop_done vld1.8 {q8,q9}, [r0]! @ load input vld1.8 {q10,q11}, [r0]! veor q0, q8 veor q1, q9 vld1.8 {q12,q13}, [r0]! veor q4, q10 veor q6, q11 vld1.8 {q14,q15}, [r0]! veor q3, q12 vst1.8 {q0,q1}, [r1]! @ write output veor q7, q13 veor q2, q14 vst1.8 {q4}, [r1]! veor q5, q15 vst1.8 {q6}, [r1]! vmov.i32 q8, #1 @ compose 1<<96 vst1.8 {q3}, [r1]! veor q9, q9, q9 vst1.8 {q7}, [r1]! vext.8 q8, q9, q8, #4 vst1.8 {q2}, [r1]! vadd.u32 q9,q8,q8 @ compose 2<<96 vst1.8 {q5}, [r1]! vldmia r9, {q0} @ load counter bne .Lctr_enc_loop b .Lctr_enc_done .align 4 .Lctr_enc_loop_done: add r2, r2, #8 vld1.8 {q8}, [r0]! @ load input veor q0, q8 vst1.8 {q0}, [r1]! @ write output cmp r2, #2 blo .Lctr_enc_done vld1.8 {q9}, [r0]! veor q1, q9 vst1.8 {q1}, [r1]! beq .Lctr_enc_done vld1.8 {q10}, [r0]! veor q4, q10 vst1.8 {q4}, [r1]! cmp r2, #4 blo .Lctr_enc_done vld1.8 {q11}, [r0]! veor q6, q11 vst1.8 {q6}, [r1]! beq .Lctr_enc_done vld1.8 {q12}, [r0]! veor q3, q12 vst1.8 {q3}, [r1]! cmp r2, #6 blo .Lctr_enc_done vld1.8 {q13}, [r0]! veor q7, q13 vst1.8 {q7}, [r1]! beq .Lctr_enc_done vld1.8 {q14}, [r0] veor q2, q14 vst1.8 {q2}, [r1]! .Lctr_enc_done: vmov.i32 q0, #0 vmov.i32 q1, #0 #ifndef BSAES_ASM_EXTENDED_KEY .Lctr_enc_bzero:@ wipe key schedule [if any] vstmia sp!, {q0,q1} cmp sp, r9 bne .Lctr_enc_bzero #else vstmia sp, {q0,q1} #endif mov sp, r9 add sp, #0x10 @ add sp,r9,#0x10 is no good for thumb VFP_ABI_POP ldmia sp!, {r4,r5,r6,r7,r8,r9,r10, pc} @ return @ OpenSSL contains aes_nohw_* fallback code here. We patch this @ out to retain a constant-time implementation. .size bsaes_ctr32_encrypt_blocks,.-bsaes_ctr32_encrypt_blocks #endif #endif // !OPENSSL_NO_ASM && defined(OPENSSL_ARM) && defined(__ELF__)
Vtyeshe/geoai-backend
12,622
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/ring-0.17.13/pregenerated/chacha-x86-elf.S
// This file is generated from a similarly-named Perl script in the BoringSSL // source tree. Do not edit by hand. #include <ring-core/asm_base.h> #if !defined(OPENSSL_NO_ASM) && defined(OPENSSL_X86) && defined(__ELF__) .text .globl ChaCha20_ctr32_ssse3 .hidden ChaCha20_ctr32_ssse3 .type ChaCha20_ctr32_ssse3,@function .align 16 ChaCha20_ctr32_ssse3: .L_ChaCha20_ctr32_ssse3_begin: pushl %ebp pushl %ebx pushl %esi pushl %edi call .Lpic_point .Lpic_point: popl %eax movl 20(%esp),%edi movl 24(%esp),%esi movl 28(%esp),%ecx movl 32(%esp),%edx movl 36(%esp),%ebx movl %esp,%ebp subl $524,%esp andl $-64,%esp movl %ebp,512(%esp) leal .Lssse3_data-.Lpic_point(%eax),%eax movdqu (%ebx),%xmm3 cmpl $256,%ecx jb .L0001x movl %edx,516(%esp) movl %ebx,520(%esp) subl $256,%ecx leal 384(%esp),%ebp movdqu (%edx),%xmm7 pshufd $0,%xmm3,%xmm0 pshufd $85,%xmm3,%xmm1 pshufd $170,%xmm3,%xmm2 pshufd $255,%xmm3,%xmm3 paddd 48(%eax),%xmm0 pshufd $0,%xmm7,%xmm4 pshufd $85,%xmm7,%xmm5 psubd 64(%eax),%xmm0 pshufd $170,%xmm7,%xmm6 pshufd $255,%xmm7,%xmm7 movdqa %xmm0,64(%ebp) movdqa %xmm1,80(%ebp) movdqa %xmm2,96(%ebp) movdqa %xmm3,112(%ebp) movdqu 16(%edx),%xmm3 movdqa %xmm4,-64(%ebp) movdqa %xmm5,-48(%ebp) movdqa %xmm6,-32(%ebp) movdqa %xmm7,-16(%ebp) movdqa 32(%eax),%xmm7 leal 128(%esp),%ebx pshufd $0,%xmm3,%xmm0 pshufd $85,%xmm3,%xmm1 pshufd $170,%xmm3,%xmm2 pshufd $255,%xmm3,%xmm3 pshufd $0,%xmm7,%xmm4 pshufd $85,%xmm7,%xmm5 pshufd $170,%xmm7,%xmm6 pshufd $255,%xmm7,%xmm7 movdqa %xmm0,(%ebp) movdqa %xmm1,16(%ebp) movdqa %xmm2,32(%ebp) movdqa %xmm3,48(%ebp) movdqa %xmm4,-128(%ebp) movdqa %xmm5,-112(%ebp) movdqa %xmm6,-96(%ebp) movdqa %xmm7,-80(%ebp) leal 128(%esi),%esi leal 128(%edi),%edi jmp .L001outer_loop .align 16 .L001outer_loop: movdqa -112(%ebp),%xmm1 movdqa -96(%ebp),%xmm2 movdqa -80(%ebp),%xmm3 movdqa -48(%ebp),%xmm5 movdqa -32(%ebp),%xmm6 movdqa -16(%ebp),%xmm7 movdqa %xmm1,-112(%ebx) movdqa %xmm2,-96(%ebx) movdqa %xmm3,-80(%ebx) movdqa %xmm5,-48(%ebx) movdqa %xmm6,-32(%ebx) movdqa %xmm7,-16(%ebx) movdqa 32(%ebp),%xmm2 movdqa 48(%ebp),%xmm3 movdqa 64(%ebp),%xmm4 movdqa 80(%ebp),%xmm5 movdqa 96(%ebp),%xmm6 movdqa 112(%ebp),%xmm7 paddd 64(%eax),%xmm4 movdqa %xmm2,32(%ebx) movdqa %xmm3,48(%ebx) movdqa %xmm4,64(%ebx) movdqa %xmm5,80(%ebx) movdqa %xmm6,96(%ebx) movdqa %xmm7,112(%ebx) movdqa %xmm4,64(%ebp) movdqa -128(%ebp),%xmm0 movdqa %xmm4,%xmm6 movdqa -64(%ebp),%xmm3 movdqa (%ebp),%xmm4 movdqa 16(%ebp),%xmm5 movl $10,%edx nop .align 16 .L002loop: paddd %xmm3,%xmm0 movdqa %xmm3,%xmm2 pxor %xmm0,%xmm6 pshufb (%eax),%xmm6 paddd %xmm6,%xmm4 pxor %xmm4,%xmm2 movdqa -48(%ebx),%xmm3 movdqa %xmm2,%xmm1 pslld $12,%xmm2 psrld $20,%xmm1 por %xmm1,%xmm2 movdqa -112(%ebx),%xmm1 paddd %xmm2,%xmm0 movdqa 80(%ebx),%xmm7 pxor %xmm0,%xmm6 movdqa %xmm0,-128(%ebx) pshufb 16(%eax),%xmm6 paddd %xmm6,%xmm4 movdqa %xmm6,64(%ebx) pxor %xmm4,%xmm2 paddd %xmm3,%xmm1 movdqa %xmm2,%xmm0 pslld $7,%xmm2 psrld $25,%xmm0 pxor %xmm1,%xmm7 por %xmm0,%xmm2 movdqa %xmm4,(%ebx) pshufb (%eax),%xmm7 movdqa %xmm2,-64(%ebx) paddd %xmm7,%xmm5 movdqa 32(%ebx),%xmm4 pxor %xmm5,%xmm3 movdqa -32(%ebx),%xmm2 movdqa %xmm3,%xmm0 pslld $12,%xmm3 psrld $20,%xmm0 por %xmm0,%xmm3 movdqa -96(%ebx),%xmm0 paddd %xmm3,%xmm1 movdqa 96(%ebx),%xmm6 pxor %xmm1,%xmm7 movdqa %xmm1,-112(%ebx) pshufb 16(%eax),%xmm7 paddd %xmm7,%xmm5 movdqa %xmm7,80(%ebx) pxor %xmm5,%xmm3 paddd %xmm2,%xmm0 movdqa %xmm3,%xmm1 pslld $7,%xmm3 psrld $25,%xmm1 pxor %xmm0,%xmm6 por %xmm1,%xmm3 movdqa %xmm5,16(%ebx) pshufb (%eax),%xmm6 movdqa %xmm3,-48(%ebx) paddd %xmm6,%xmm4 movdqa 48(%ebx),%xmm5 pxor %xmm4,%xmm2 movdqa -16(%ebx),%xmm3 movdqa %xmm2,%xmm1 pslld $12,%xmm2 psrld $20,%xmm1 por %xmm1,%xmm2 movdqa -80(%ebx),%xmm1 paddd %xmm2,%xmm0 movdqa 112(%ebx),%xmm7 pxor %xmm0,%xmm6 movdqa %xmm0,-96(%ebx) pshufb 16(%eax),%xmm6 paddd %xmm6,%xmm4 movdqa %xmm6,96(%ebx) pxor %xmm4,%xmm2 paddd %xmm3,%xmm1 movdqa %xmm2,%xmm0 pslld $7,%xmm2 psrld $25,%xmm0 pxor %xmm1,%xmm7 por %xmm0,%xmm2 pshufb (%eax),%xmm7 movdqa %xmm2,-32(%ebx) paddd %xmm7,%xmm5 pxor %xmm5,%xmm3 movdqa -48(%ebx),%xmm2 movdqa %xmm3,%xmm0 pslld $12,%xmm3 psrld $20,%xmm0 por %xmm0,%xmm3 movdqa -128(%ebx),%xmm0 paddd %xmm3,%xmm1 pxor %xmm1,%xmm7 movdqa %xmm1,-80(%ebx) pshufb 16(%eax),%xmm7 paddd %xmm7,%xmm5 movdqa %xmm7,%xmm6 pxor %xmm5,%xmm3 paddd %xmm2,%xmm0 movdqa %xmm3,%xmm1 pslld $7,%xmm3 psrld $25,%xmm1 pxor %xmm0,%xmm6 por %xmm1,%xmm3 pshufb (%eax),%xmm6 movdqa %xmm3,-16(%ebx) paddd %xmm6,%xmm4 pxor %xmm4,%xmm2 movdqa -32(%ebx),%xmm3 movdqa %xmm2,%xmm1 pslld $12,%xmm2 psrld $20,%xmm1 por %xmm1,%xmm2 movdqa -112(%ebx),%xmm1 paddd %xmm2,%xmm0 movdqa 64(%ebx),%xmm7 pxor %xmm0,%xmm6 movdqa %xmm0,-128(%ebx) pshufb 16(%eax),%xmm6 paddd %xmm6,%xmm4 movdqa %xmm6,112(%ebx) pxor %xmm4,%xmm2 paddd %xmm3,%xmm1 movdqa %xmm2,%xmm0 pslld $7,%xmm2 psrld $25,%xmm0 pxor %xmm1,%xmm7 por %xmm0,%xmm2 movdqa %xmm4,32(%ebx) pshufb (%eax),%xmm7 movdqa %xmm2,-48(%ebx) paddd %xmm7,%xmm5 movdqa (%ebx),%xmm4 pxor %xmm5,%xmm3 movdqa -16(%ebx),%xmm2 movdqa %xmm3,%xmm0 pslld $12,%xmm3 psrld $20,%xmm0 por %xmm0,%xmm3 movdqa -96(%ebx),%xmm0 paddd %xmm3,%xmm1 movdqa 80(%ebx),%xmm6 pxor %xmm1,%xmm7 movdqa %xmm1,-112(%ebx) pshufb 16(%eax),%xmm7 paddd %xmm7,%xmm5 movdqa %xmm7,64(%ebx) pxor %xmm5,%xmm3 paddd %xmm2,%xmm0 movdqa %xmm3,%xmm1 pslld $7,%xmm3 psrld $25,%xmm1 pxor %xmm0,%xmm6 por %xmm1,%xmm3 movdqa %xmm5,48(%ebx) pshufb (%eax),%xmm6 movdqa %xmm3,-32(%ebx) paddd %xmm6,%xmm4 movdqa 16(%ebx),%xmm5 pxor %xmm4,%xmm2 movdqa -64(%ebx),%xmm3 movdqa %xmm2,%xmm1 pslld $12,%xmm2 psrld $20,%xmm1 por %xmm1,%xmm2 movdqa -80(%ebx),%xmm1 paddd %xmm2,%xmm0 movdqa 96(%ebx),%xmm7 pxor %xmm0,%xmm6 movdqa %xmm0,-96(%ebx) pshufb 16(%eax),%xmm6 paddd %xmm6,%xmm4 movdqa %xmm6,80(%ebx) pxor %xmm4,%xmm2 paddd %xmm3,%xmm1 movdqa %xmm2,%xmm0 pslld $7,%xmm2 psrld $25,%xmm0 pxor %xmm1,%xmm7 por %xmm0,%xmm2 pshufb (%eax),%xmm7 movdqa %xmm2,-16(%ebx) paddd %xmm7,%xmm5 pxor %xmm5,%xmm3 movdqa %xmm3,%xmm0 pslld $12,%xmm3 psrld $20,%xmm0 por %xmm0,%xmm3 movdqa -128(%ebx),%xmm0 paddd %xmm3,%xmm1 movdqa 64(%ebx),%xmm6 pxor %xmm1,%xmm7 movdqa %xmm1,-80(%ebx) pshufb 16(%eax),%xmm7 paddd %xmm7,%xmm5 movdqa %xmm7,96(%ebx) pxor %xmm5,%xmm3 movdqa %xmm3,%xmm1 pslld $7,%xmm3 psrld $25,%xmm1 por %xmm1,%xmm3 decl %edx jnz .L002loop movdqa %xmm3,-64(%ebx) movdqa %xmm4,(%ebx) movdqa %xmm5,16(%ebx) movdqa %xmm6,64(%ebx) movdqa %xmm7,96(%ebx) movdqa -112(%ebx),%xmm1 movdqa -96(%ebx),%xmm2 movdqa -80(%ebx),%xmm3 paddd -128(%ebp),%xmm0 paddd -112(%ebp),%xmm1 paddd -96(%ebp),%xmm2 paddd -80(%ebp),%xmm3 movdqa %xmm0,%xmm6 punpckldq %xmm1,%xmm0 movdqa %xmm2,%xmm7 punpckldq %xmm3,%xmm2 punpckhdq %xmm1,%xmm6 punpckhdq %xmm3,%xmm7 movdqa %xmm0,%xmm1 punpcklqdq %xmm2,%xmm0 movdqa %xmm6,%xmm3 punpcklqdq %xmm7,%xmm6 punpckhqdq %xmm2,%xmm1 punpckhqdq %xmm7,%xmm3 movdqu -128(%esi),%xmm4 movdqu -64(%esi),%xmm5 movdqu (%esi),%xmm2 movdqu 64(%esi),%xmm7 leal 16(%esi),%esi pxor %xmm0,%xmm4 movdqa -64(%ebx),%xmm0 pxor %xmm1,%xmm5 movdqa -48(%ebx),%xmm1 pxor %xmm2,%xmm6 movdqa -32(%ebx),%xmm2 pxor %xmm3,%xmm7 movdqa -16(%ebx),%xmm3 movdqu %xmm4,-128(%edi) movdqu %xmm5,-64(%edi) movdqu %xmm6,(%edi) movdqu %xmm7,64(%edi) leal 16(%edi),%edi paddd -64(%ebp),%xmm0 paddd -48(%ebp),%xmm1 paddd -32(%ebp),%xmm2 paddd -16(%ebp),%xmm3 movdqa %xmm0,%xmm6 punpckldq %xmm1,%xmm0 movdqa %xmm2,%xmm7 punpckldq %xmm3,%xmm2 punpckhdq %xmm1,%xmm6 punpckhdq %xmm3,%xmm7 movdqa %xmm0,%xmm1 punpcklqdq %xmm2,%xmm0 movdqa %xmm6,%xmm3 punpcklqdq %xmm7,%xmm6 punpckhqdq %xmm2,%xmm1 punpckhqdq %xmm7,%xmm3 movdqu -128(%esi),%xmm4 movdqu -64(%esi),%xmm5 movdqu (%esi),%xmm2 movdqu 64(%esi),%xmm7 leal 16(%esi),%esi pxor %xmm0,%xmm4 movdqa (%ebx),%xmm0 pxor %xmm1,%xmm5 movdqa 16(%ebx),%xmm1 pxor %xmm2,%xmm6 movdqa 32(%ebx),%xmm2 pxor %xmm3,%xmm7 movdqa 48(%ebx),%xmm3 movdqu %xmm4,-128(%edi) movdqu %xmm5,-64(%edi) movdqu %xmm6,(%edi) movdqu %xmm7,64(%edi) leal 16(%edi),%edi paddd (%ebp),%xmm0 paddd 16(%ebp),%xmm1 paddd 32(%ebp),%xmm2 paddd 48(%ebp),%xmm3 movdqa %xmm0,%xmm6 punpckldq %xmm1,%xmm0 movdqa %xmm2,%xmm7 punpckldq %xmm3,%xmm2 punpckhdq %xmm1,%xmm6 punpckhdq %xmm3,%xmm7 movdqa %xmm0,%xmm1 punpcklqdq %xmm2,%xmm0 movdqa %xmm6,%xmm3 punpcklqdq %xmm7,%xmm6 punpckhqdq %xmm2,%xmm1 punpckhqdq %xmm7,%xmm3 movdqu -128(%esi),%xmm4 movdqu -64(%esi),%xmm5 movdqu (%esi),%xmm2 movdqu 64(%esi),%xmm7 leal 16(%esi),%esi pxor %xmm0,%xmm4 movdqa 64(%ebx),%xmm0 pxor %xmm1,%xmm5 movdqa 80(%ebx),%xmm1 pxor %xmm2,%xmm6 movdqa 96(%ebx),%xmm2 pxor %xmm3,%xmm7 movdqa 112(%ebx),%xmm3 movdqu %xmm4,-128(%edi) movdqu %xmm5,-64(%edi) movdqu %xmm6,(%edi) movdqu %xmm7,64(%edi) leal 16(%edi),%edi paddd 64(%ebp),%xmm0 paddd 80(%ebp),%xmm1 paddd 96(%ebp),%xmm2 paddd 112(%ebp),%xmm3 movdqa %xmm0,%xmm6 punpckldq %xmm1,%xmm0 movdqa %xmm2,%xmm7 punpckldq %xmm3,%xmm2 punpckhdq %xmm1,%xmm6 punpckhdq %xmm3,%xmm7 movdqa %xmm0,%xmm1 punpcklqdq %xmm2,%xmm0 movdqa %xmm6,%xmm3 punpcklqdq %xmm7,%xmm6 punpckhqdq %xmm2,%xmm1 punpckhqdq %xmm7,%xmm3 movdqu -128(%esi),%xmm4 movdqu -64(%esi),%xmm5 movdqu (%esi),%xmm2 movdqu 64(%esi),%xmm7 leal 208(%esi),%esi pxor %xmm0,%xmm4 pxor %xmm1,%xmm5 pxor %xmm2,%xmm6 pxor %xmm3,%xmm7 movdqu %xmm4,-128(%edi) movdqu %xmm5,-64(%edi) movdqu %xmm6,(%edi) movdqu %xmm7,64(%edi) leal 208(%edi),%edi subl $256,%ecx jnc .L001outer_loop addl $256,%ecx jz .L003done movl 520(%esp),%ebx leal -128(%esi),%esi movl 516(%esp),%edx leal -128(%edi),%edi movd 64(%ebp),%xmm2 movdqu (%ebx),%xmm3 paddd 96(%eax),%xmm2 pand 112(%eax),%xmm3 por %xmm2,%xmm3 .L0001x: movdqa 32(%eax),%xmm0 movdqu (%edx),%xmm1 movdqu 16(%edx),%xmm2 movdqa (%eax),%xmm6 movdqa 16(%eax),%xmm7 movl %ebp,48(%esp) movdqa %xmm0,(%esp) movdqa %xmm1,16(%esp) movdqa %xmm2,32(%esp) movdqa %xmm3,48(%esp) movl $10,%edx jmp .L004loop1x .align 16 .L005outer1x: movdqa 80(%eax),%xmm3 movdqa (%esp),%xmm0 movdqa 16(%esp),%xmm1 movdqa 32(%esp),%xmm2 paddd 48(%esp),%xmm3 movl $10,%edx movdqa %xmm3,48(%esp) jmp .L004loop1x .align 16 .L004loop1x: paddd %xmm1,%xmm0 pxor %xmm0,%xmm3 .byte 102,15,56,0,222 paddd %xmm3,%xmm2 pxor %xmm2,%xmm1 movdqa %xmm1,%xmm4 psrld $20,%xmm1 pslld $12,%xmm4 por %xmm4,%xmm1 paddd %xmm1,%xmm0 pxor %xmm0,%xmm3 .byte 102,15,56,0,223 paddd %xmm3,%xmm2 pxor %xmm2,%xmm1 movdqa %xmm1,%xmm4 psrld $25,%xmm1 pslld $7,%xmm4 por %xmm4,%xmm1 pshufd $78,%xmm2,%xmm2 pshufd $57,%xmm1,%xmm1 pshufd $147,%xmm3,%xmm3 nop paddd %xmm1,%xmm0 pxor %xmm0,%xmm3 .byte 102,15,56,0,222 paddd %xmm3,%xmm2 pxor %xmm2,%xmm1 movdqa %xmm1,%xmm4 psrld $20,%xmm1 pslld $12,%xmm4 por %xmm4,%xmm1 paddd %xmm1,%xmm0 pxor %xmm0,%xmm3 .byte 102,15,56,0,223 paddd %xmm3,%xmm2 pxor %xmm2,%xmm1 movdqa %xmm1,%xmm4 psrld $25,%xmm1 pslld $7,%xmm4 por %xmm4,%xmm1 pshufd $78,%xmm2,%xmm2 pshufd $147,%xmm1,%xmm1 pshufd $57,%xmm3,%xmm3 decl %edx jnz .L004loop1x paddd (%esp),%xmm0 paddd 16(%esp),%xmm1 paddd 32(%esp),%xmm2 paddd 48(%esp),%xmm3 cmpl $64,%ecx jb .L006tail movdqu (%esi),%xmm4 movdqu 16(%esi),%xmm5 pxor %xmm4,%xmm0 movdqu 32(%esi),%xmm4 pxor %xmm5,%xmm1 movdqu 48(%esi),%xmm5 pxor %xmm4,%xmm2 pxor %xmm5,%xmm3 leal 64(%esi),%esi movdqu %xmm0,(%edi) movdqu %xmm1,16(%edi) movdqu %xmm2,32(%edi) movdqu %xmm3,48(%edi) leal 64(%edi),%edi subl $64,%ecx jnz .L005outer1x jmp .L003done .L006tail: movdqa %xmm0,(%esp) movdqa %xmm1,16(%esp) movdqa %xmm2,32(%esp) movdqa %xmm3,48(%esp) xorl %eax,%eax xorl %edx,%edx xorl %ebp,%ebp .L007tail_loop: movb (%esp,%ebp,1),%al movb (%esi,%ebp,1),%dl leal 1(%ebp),%ebp xorb %dl,%al movb %al,-1(%edi,%ebp,1) decl %ecx jnz .L007tail_loop .L003done: movl 512(%esp),%esp popl %edi popl %esi popl %ebx popl %ebp ret .size ChaCha20_ctr32_ssse3,.-.L_ChaCha20_ctr32_ssse3_begin .align 64 .Lssse3_data: .byte 2,3,0,1,6,7,4,5,10,11,8,9,14,15,12,13 .byte 3,0,1,2,7,4,5,6,11,8,9,10,15,12,13,14 .long 1634760805,857760878,2036477234,1797285236 .long 0,1,2,3 .long 4,4,4,4 .long 1,0,0,0 .long 4,0,0,0 .long 0,-1,-1,-1 .align 64 .byte 67,104,97,67,104,97,50,48,32,102,111,114,32,120,56,54 .byte 44,32,67,82,89,80,84,79,71,65,77,83,32,98,121,32 .byte 60,97,112,112,114,111,64,111,112,101,110,115,115,108,46,111 .byte 114,103,62,0 #endif // !defined(OPENSSL_NO_ASM) && defined(OPENSSL_X86) && defined(__ELF__)
Vtyeshe/geoai-backend
4,229
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/ring-0.17.13/pregenerated/x86-mont-elf.S
// This file is generated from a similarly-named Perl script in the BoringSSL // source tree. Do not edit by hand. #include <ring-core/asm_base.h> #if !defined(OPENSSL_NO_ASM) && defined(OPENSSL_X86) && defined(__ELF__) .text .globl bn_mul_mont .hidden bn_mul_mont .type bn_mul_mont,@function .align 16 bn_mul_mont: .L_bn_mul_mont_begin: pushl %ebp pushl %ebx pushl %esi pushl %edi xorl %eax,%eax movl 40(%esp),%edi leal 20(%esp),%esi leal 24(%esp),%edx addl $2,%edi negl %edi leal -32(%esp,%edi,4),%ebp negl %edi movl %ebp,%eax subl %edx,%eax andl $2047,%eax subl %eax,%ebp xorl %ebp,%edx andl $2048,%edx xorl $2048,%edx subl %edx,%ebp andl $-64,%ebp movl %esp,%eax subl %ebp,%eax andl $-4096,%eax movl %esp,%edx leal (%ebp,%eax,1),%esp movl (%esp),%eax cmpl %ebp,%esp ja .L000page_walk jmp .L001page_walk_done .align 16 .L000page_walk: leal -4096(%esp),%esp movl (%esp),%eax cmpl %ebp,%esp ja .L000page_walk .L001page_walk_done: movl (%esi),%eax movl 4(%esi),%ebx movl 8(%esi),%ecx movl 12(%esi),%ebp movl 16(%esi),%esi movl (%esi),%esi movl %eax,4(%esp) movl %ebx,8(%esp) movl %ecx,12(%esp) movl %ebp,16(%esp) movl %esi,20(%esp) leal -3(%edi),%ebx movl %edx,24(%esp) movl $-1,%eax movd %eax,%mm7 movl 8(%esp),%esi movl 12(%esp),%edi movl 16(%esp),%ebp xorl %edx,%edx xorl %ecx,%ecx movd (%edi),%mm4 movd (%esi),%mm5 movd (%ebp),%mm3 pmuludq %mm4,%mm5 movq %mm5,%mm2 movq %mm5,%mm0 pand %mm7,%mm0 pmuludq 20(%esp),%mm5 pmuludq %mm5,%mm3 paddq %mm0,%mm3 movd 4(%ebp),%mm1 movd 4(%esi),%mm0 psrlq $32,%mm2 psrlq $32,%mm3 incl %ecx .align 16 .L0021st: pmuludq %mm4,%mm0 pmuludq %mm5,%mm1 paddq %mm0,%mm2 paddq %mm1,%mm3 movq %mm2,%mm0 pand %mm7,%mm0 movd 4(%ebp,%ecx,4),%mm1 paddq %mm0,%mm3 movd 4(%esi,%ecx,4),%mm0 psrlq $32,%mm2 movd %mm3,28(%esp,%ecx,4) psrlq $32,%mm3 leal 1(%ecx),%ecx cmpl %ebx,%ecx jl .L0021st pmuludq %mm4,%mm0 pmuludq %mm5,%mm1 paddq %mm0,%mm2 paddq %mm1,%mm3 movq %mm2,%mm0 pand %mm7,%mm0 paddq %mm0,%mm3 movd %mm3,28(%esp,%ecx,4) psrlq $32,%mm2 psrlq $32,%mm3 paddq %mm2,%mm3 movq %mm3,32(%esp,%ebx,4) incl %edx .L003outer: xorl %ecx,%ecx movd (%edi,%edx,4),%mm4 movd (%esi),%mm5 movd 32(%esp),%mm6 movd (%ebp),%mm3 pmuludq %mm4,%mm5 paddq %mm6,%mm5 movq %mm5,%mm0 movq %mm5,%mm2 pand %mm7,%mm0 pmuludq 20(%esp),%mm5 pmuludq %mm5,%mm3 paddq %mm0,%mm3 movd 36(%esp),%mm6 movd 4(%ebp),%mm1 movd 4(%esi),%mm0 psrlq $32,%mm2 psrlq $32,%mm3 paddq %mm6,%mm2 incl %ecx decl %ebx .L004inner: pmuludq %mm4,%mm0 pmuludq %mm5,%mm1 paddq %mm0,%mm2 paddq %mm1,%mm3 movq %mm2,%mm0 movd 36(%esp,%ecx,4),%mm6 pand %mm7,%mm0 movd 4(%ebp,%ecx,4),%mm1 paddq %mm0,%mm3 movd 4(%esi,%ecx,4),%mm0 psrlq $32,%mm2 movd %mm3,28(%esp,%ecx,4) psrlq $32,%mm3 paddq %mm6,%mm2 decl %ebx leal 1(%ecx),%ecx jnz .L004inner movl %ecx,%ebx pmuludq %mm4,%mm0 pmuludq %mm5,%mm1 paddq %mm0,%mm2 paddq %mm1,%mm3 movq %mm2,%mm0 pand %mm7,%mm0 paddq %mm0,%mm3 movd %mm3,28(%esp,%ecx,4) psrlq $32,%mm2 psrlq $32,%mm3 movd 36(%esp,%ebx,4),%mm6 paddq %mm2,%mm3 paddq %mm6,%mm3 movq %mm3,32(%esp,%ebx,4) leal 1(%edx),%edx cmpl %ebx,%edx jle .L003outer emms jmp .L005common_tail .align 16 .L005common_tail: movl 16(%esp),%ebp movl 4(%esp),%edi leal 32(%esp),%esi movl (%esi),%eax movl %ebx,%ecx xorl %edx,%edx .align 16 .L006sub: sbbl (%ebp,%edx,4),%eax movl %eax,(%edi,%edx,4) decl %ecx movl 4(%esi,%edx,4),%eax leal 1(%edx),%edx jge .L006sub sbbl $0,%eax movl $-1,%edx xorl %eax,%edx jmp .L007copy .align 16 .L007copy: movl 32(%esp,%ebx,4),%esi movl (%edi,%ebx,4),%ebp movl %ecx,32(%esp,%ebx,4) andl %eax,%esi andl %edx,%ebp orl %esi,%ebp movl %ebp,(%edi,%ebx,4) decl %ebx jge .L007copy movl 24(%esp),%esp movl $1,%eax popl %edi popl %esi popl %ebx popl %ebp ret .size bn_mul_mont,.-.L_bn_mul_mont_begin .byte 77,111,110,116,103,111,109,101,114,121,32,77,117,108,116,105 .byte 112,108,105,99,97,116,105,111,110,32,102,111,114,32,120,56 .byte 54,44,32,67,82,89,80,84,79,71,65,77,83,32,98,121 .byte 32,60,97,112,112,114,111,64,111,112,101,110,115,115,108,46 .byte 111,114,103,62,0 #endif // !defined(OPENSSL_NO_ASM) && defined(OPENSSL_X86) && defined(__ELF__)
Vtyeshe/geoai-backend
28,780
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/ring-0.17.13/pregenerated/chacha-armv4-linux32.S
// This file is generated from a similarly-named Perl script in the BoringSSL // source tree. Do not edit by hand. #include <ring-core/asm_base.h> #if !defined(OPENSSL_NO_ASM) && defined(OPENSSL_ARM) && defined(__ELF__) @ Silence ARMv8 deprecated IT instruction warnings. This file is used by both @ ARMv7 and ARMv8 processors and does not use ARMv8 instructions. .arch armv7-a .text #if defined(__thumb2__) || defined(__clang__) .syntax unified #endif #if defined(__thumb2__) .thumb #else .code 32 #endif #if defined(__thumb2__) || defined(__clang__) #define ldrhsb ldrbhs #endif .align 5 .Lsigma: .long 0x61707865,0x3320646e,0x79622d32,0x6b206574 @ endian-neutral .Lone: .long 1,0,0,0 .globl ChaCha20_ctr32_nohw .hidden ChaCha20_ctr32_nohw .type ChaCha20_ctr32_nohw,%function .align 5 ChaCha20_ctr32_nohw: ldr r12,[sp,#0] @ pull pointer to counter and nonce stmdb sp!,{r0,r1,r2,r4-r11,lr} adr r14,.Lsigma ldmia r12,{r4,r5,r6,r7} @ load counter and nonce sub sp,sp,#4*(16) @ off-load area stmdb sp!,{r4,r5,r6,r7} @ copy counter and nonce ldmia r3,{r4,r5,r6,r7,r8,r9,r10,r11} @ load key ldmia r14,{r0,r1,r2,r3} @ load sigma stmdb sp!,{r4,r5,r6,r7,r8,r9,r10,r11} @ copy key stmdb sp!,{r0,r1,r2,r3} @ copy sigma str r10,[sp,#4*(16+10)] @ off-load "rx" str r11,[sp,#4*(16+11)] @ off-load "rx" b .Loop_outer_enter .align 4 .Loop_outer: ldmia sp,{r0,r1,r2,r3,r4,r5,r6,r7,r8,r9} @ load key material str r11,[sp,#4*(32+2)] @ save len str r12, [sp,#4*(32+1)] @ save inp str r14, [sp,#4*(32+0)] @ save out .Loop_outer_enter: ldr r11, [sp,#4*(15)] ldr r12,[sp,#4*(12)] @ modulo-scheduled load ldr r10, [sp,#4*(13)] ldr r14,[sp,#4*(14)] str r11, [sp,#4*(16+15)] mov r11,#10 b .Loop .align 4 .Loop: subs r11,r11,#1 add r0,r0,r4 mov r12,r12,ror#16 add r1,r1,r5 mov r10,r10,ror#16 eor r12,r12,r0,ror#16 eor r10,r10,r1,ror#16 add r8,r8,r12 mov r4,r4,ror#20 add r9,r9,r10 mov r5,r5,ror#20 eor r4,r4,r8,ror#20 eor r5,r5,r9,ror#20 add r0,r0,r4 mov r12,r12,ror#24 add r1,r1,r5 mov r10,r10,ror#24 eor r12,r12,r0,ror#24 eor r10,r10,r1,ror#24 add r8,r8,r12 mov r4,r4,ror#25 add r9,r9,r10 mov r5,r5,ror#25 str r10,[sp,#4*(16+13)] ldr r10,[sp,#4*(16+15)] eor r4,r4,r8,ror#25 eor r5,r5,r9,ror#25 str r8,[sp,#4*(16+8)] ldr r8,[sp,#4*(16+10)] add r2,r2,r6 mov r14,r14,ror#16 str r9,[sp,#4*(16+9)] ldr r9,[sp,#4*(16+11)] add r3,r3,r7 mov r10,r10,ror#16 eor r14,r14,r2,ror#16 eor r10,r10,r3,ror#16 add r8,r8,r14 mov r6,r6,ror#20 add r9,r9,r10 mov r7,r7,ror#20 eor r6,r6,r8,ror#20 eor r7,r7,r9,ror#20 add r2,r2,r6 mov r14,r14,ror#24 add r3,r3,r7 mov r10,r10,ror#24 eor r14,r14,r2,ror#24 eor r10,r10,r3,ror#24 add r8,r8,r14 mov r6,r6,ror#25 add r9,r9,r10 mov r7,r7,ror#25 eor r6,r6,r8,ror#25 eor r7,r7,r9,ror#25 add r0,r0,r5 mov r10,r10,ror#16 add r1,r1,r6 mov r12,r12,ror#16 eor r10,r10,r0,ror#16 eor r12,r12,r1,ror#16 add r8,r8,r10 mov r5,r5,ror#20 add r9,r9,r12 mov r6,r6,ror#20 eor r5,r5,r8,ror#20 eor r6,r6,r9,ror#20 add r0,r0,r5 mov r10,r10,ror#24 add r1,r1,r6 mov r12,r12,ror#24 eor r10,r10,r0,ror#24 eor r12,r12,r1,ror#24 add r8,r8,r10 mov r5,r5,ror#25 str r10,[sp,#4*(16+15)] ldr r10,[sp,#4*(16+13)] add r9,r9,r12 mov r6,r6,ror#25 eor r5,r5,r8,ror#25 eor r6,r6,r9,ror#25 str r8,[sp,#4*(16+10)] ldr r8,[sp,#4*(16+8)] add r2,r2,r7 mov r10,r10,ror#16 str r9,[sp,#4*(16+11)] ldr r9,[sp,#4*(16+9)] add r3,r3,r4 mov r14,r14,ror#16 eor r10,r10,r2,ror#16 eor r14,r14,r3,ror#16 add r8,r8,r10 mov r7,r7,ror#20 add r9,r9,r14 mov r4,r4,ror#20 eor r7,r7,r8,ror#20 eor r4,r4,r9,ror#20 add r2,r2,r7 mov r10,r10,ror#24 add r3,r3,r4 mov r14,r14,ror#24 eor r10,r10,r2,ror#24 eor r14,r14,r3,ror#24 add r8,r8,r10 mov r7,r7,ror#25 add r9,r9,r14 mov r4,r4,ror#25 eor r7,r7,r8,ror#25 eor r4,r4,r9,ror#25 bne .Loop ldr r11,[sp,#4*(32+2)] @ load len str r8, [sp,#4*(16+8)] @ modulo-scheduled store str r9, [sp,#4*(16+9)] str r12,[sp,#4*(16+12)] str r10, [sp,#4*(16+13)] str r14,[sp,#4*(16+14)] @ at this point we have first half of 512-bit result in @ rx and second half at sp+4*(16+8) cmp r11,#64 @ done yet? #ifdef __thumb2__ itete lo #endif addlo r12,sp,#4*(0) @ shortcut or ... ldrhs r12,[sp,#4*(32+1)] @ ... load inp addlo r14,sp,#4*(0) @ shortcut or ... ldrhs r14,[sp,#4*(32+0)] @ ... load out ldr r8,[sp,#4*(0)] @ load key material ldr r9,[sp,#4*(1)] #if __ARM_ARCH>=6 || !defined(__ARMEB__) # if __ARM_ARCH<7 orr r10,r12,r14 tst r10,#3 @ are input and output aligned? ldr r10,[sp,#4*(2)] bne .Lunaligned cmp r11,#64 @ restore flags # else ldr r10,[sp,#4*(2)] # endif ldr r11,[sp,#4*(3)] add r0,r0,r8 @ accumulate key material add r1,r1,r9 # ifdef __thumb2__ itt hs # endif ldrhs r8,[r12],#16 @ load input ldrhs r9,[r12,#-12] add r2,r2,r10 add r3,r3,r11 # ifdef __thumb2__ itt hs # endif ldrhs r10,[r12,#-8] ldrhs r11,[r12,#-4] # if __ARM_ARCH>=6 && defined(__ARMEB__) rev r0,r0 rev r1,r1 rev r2,r2 rev r3,r3 # endif # ifdef __thumb2__ itt hs # endif eorhs r0,r0,r8 @ xor with input eorhs r1,r1,r9 add r8,sp,#4*(4) str r0,[r14],#16 @ store output # ifdef __thumb2__ itt hs # endif eorhs r2,r2,r10 eorhs r3,r3,r11 ldmia r8,{r8,r9,r10,r11} @ load key material str r1,[r14,#-12] str r2,[r14,#-8] str r3,[r14,#-4] add r4,r4,r8 @ accumulate key material add r5,r5,r9 # ifdef __thumb2__ itt hs # endif ldrhs r8,[r12],#16 @ load input ldrhs r9,[r12,#-12] add r6,r6,r10 add r7,r7,r11 # ifdef __thumb2__ itt hs # endif ldrhs r10,[r12,#-8] ldrhs r11,[r12,#-4] # if __ARM_ARCH>=6 && defined(__ARMEB__) rev r4,r4 rev r5,r5 rev r6,r6 rev r7,r7 # endif # ifdef __thumb2__ itt hs # endif eorhs r4,r4,r8 eorhs r5,r5,r9 add r8,sp,#4*(8) str r4,[r14],#16 @ store output # ifdef __thumb2__ itt hs # endif eorhs r6,r6,r10 eorhs r7,r7,r11 str r5,[r14,#-12] ldmia r8,{r8,r9,r10,r11} @ load key material str r6,[r14,#-8] add r0,sp,#4*(16+8) str r7,[r14,#-4] ldmia r0,{r0,r1,r2,r3,r4,r5,r6,r7} @ load second half add r0,r0,r8 @ accumulate key material add r1,r1,r9 # ifdef __thumb2__ itt hs # endif ldrhs r8,[r12],#16 @ load input ldrhs r9,[r12,#-12] # ifdef __thumb2__ itt hi # endif strhi r10,[sp,#4*(16+10)] @ copy "rx" while at it strhi r11,[sp,#4*(16+11)] @ copy "rx" while at it add r2,r2,r10 add r3,r3,r11 # ifdef __thumb2__ itt hs # endif ldrhs r10,[r12,#-8] ldrhs r11,[r12,#-4] # if __ARM_ARCH>=6 && defined(__ARMEB__) rev r0,r0 rev r1,r1 rev r2,r2 rev r3,r3 # endif # ifdef __thumb2__ itt hs # endif eorhs r0,r0,r8 eorhs r1,r1,r9 add r8,sp,#4*(12) str r0,[r14],#16 @ store output # ifdef __thumb2__ itt hs # endif eorhs r2,r2,r10 eorhs r3,r3,r11 str r1,[r14,#-12] ldmia r8,{r8,r9,r10,r11} @ load key material str r2,[r14,#-8] str r3,[r14,#-4] add r4,r4,r8 @ accumulate key material add r5,r5,r9 # ifdef __thumb2__ itt hi # endif addhi r8,r8,#1 @ next counter value strhi r8,[sp,#4*(12)] @ save next counter value # ifdef __thumb2__ itt hs # endif ldrhs r8,[r12],#16 @ load input ldrhs r9,[r12,#-12] add r6,r6,r10 add r7,r7,r11 # ifdef __thumb2__ itt hs # endif ldrhs r10,[r12,#-8] ldrhs r11,[r12,#-4] # if __ARM_ARCH>=6 && defined(__ARMEB__) rev r4,r4 rev r5,r5 rev r6,r6 rev r7,r7 # endif # ifdef __thumb2__ itt hs # endif eorhs r4,r4,r8 eorhs r5,r5,r9 # ifdef __thumb2__ it ne # endif ldrne r8,[sp,#4*(32+2)] @ re-load len # ifdef __thumb2__ itt hs # endif eorhs r6,r6,r10 eorhs r7,r7,r11 str r4,[r14],#16 @ store output str r5,[r14,#-12] # ifdef __thumb2__ it hs # endif subhs r11,r8,#64 @ len-=64 str r6,[r14,#-8] str r7,[r14,#-4] bhi .Loop_outer beq .Ldone # if __ARM_ARCH<7 b .Ltail .align 4 .Lunaligned:@ unaligned endian-neutral path cmp r11,#64 @ restore flags # endif #endif #if __ARM_ARCH<7 ldr r11,[sp,#4*(3)] add r0,r0,r8 @ accumulate key material add r1,r1,r9 add r2,r2,r10 # ifdef __thumb2__ itete lo # endif eorlo r8,r8,r8 @ zero or ... ldrhsb r8,[r12],#16 @ ... load input eorlo r9,r9,r9 ldrhsb r9,[r12,#-12] add r3,r3,r11 # ifdef __thumb2__ itete lo # endif eorlo r10,r10,r10 ldrhsb r10,[r12,#-8] eorlo r11,r11,r11 ldrhsb r11,[r12,#-4] eor r0,r8,r0 @ xor with input (or zero) eor r1,r9,r1 # ifdef __thumb2__ itt hs # endif ldrhsb r8,[r12,#-15] @ load more input ldrhsb r9,[r12,#-11] eor r2,r10,r2 strb r0,[r14],#16 @ store output eor r3,r11,r3 # ifdef __thumb2__ itt hs # endif ldrhsb r10,[r12,#-7] ldrhsb r11,[r12,#-3] strb r1,[r14,#-12] eor r0,r8,r0,lsr#8 strb r2,[r14,#-8] eor r1,r9,r1,lsr#8 # ifdef __thumb2__ itt hs # endif ldrhsb r8,[r12,#-14] @ load more input ldrhsb r9,[r12,#-10] strb r3,[r14,#-4] eor r2,r10,r2,lsr#8 strb r0,[r14,#-15] eor r3,r11,r3,lsr#8 # ifdef __thumb2__ itt hs # endif ldrhsb r10,[r12,#-6] ldrhsb r11,[r12,#-2] strb r1,[r14,#-11] eor r0,r8,r0,lsr#8 strb r2,[r14,#-7] eor r1,r9,r1,lsr#8 # ifdef __thumb2__ itt hs # endif ldrhsb r8,[r12,#-13] @ load more input ldrhsb r9,[r12,#-9] strb r3,[r14,#-3] eor r2,r10,r2,lsr#8 strb r0,[r14,#-14] eor r3,r11,r3,lsr#8 # ifdef __thumb2__ itt hs # endif ldrhsb r10,[r12,#-5] ldrhsb r11,[r12,#-1] strb r1,[r14,#-10] strb r2,[r14,#-6] eor r0,r8,r0,lsr#8 strb r3,[r14,#-2] eor r1,r9,r1,lsr#8 strb r0,[r14,#-13] eor r2,r10,r2,lsr#8 strb r1,[r14,#-9] eor r3,r11,r3,lsr#8 strb r2,[r14,#-5] strb r3,[r14,#-1] add r8,sp,#4*(4+0) ldmia r8,{r8,r9,r10,r11} @ load key material add r0,sp,#4*(16+8) add r4,r4,r8 @ accumulate key material add r5,r5,r9 add r6,r6,r10 # ifdef __thumb2__ itete lo # endif eorlo r8,r8,r8 @ zero or ... ldrhsb r8,[r12],#16 @ ... load input eorlo r9,r9,r9 ldrhsb r9,[r12,#-12] add r7,r7,r11 # ifdef __thumb2__ itete lo # endif eorlo r10,r10,r10 ldrhsb r10,[r12,#-8] eorlo r11,r11,r11 ldrhsb r11,[r12,#-4] eor r4,r8,r4 @ xor with input (or zero) eor r5,r9,r5 # ifdef __thumb2__ itt hs # endif ldrhsb r8,[r12,#-15] @ load more input ldrhsb r9,[r12,#-11] eor r6,r10,r6 strb r4,[r14],#16 @ store output eor r7,r11,r7 # ifdef __thumb2__ itt hs # endif ldrhsb r10,[r12,#-7] ldrhsb r11,[r12,#-3] strb r5,[r14,#-12] eor r4,r8,r4,lsr#8 strb r6,[r14,#-8] eor r5,r9,r5,lsr#8 # ifdef __thumb2__ itt hs # endif ldrhsb r8,[r12,#-14] @ load more input ldrhsb r9,[r12,#-10] strb r7,[r14,#-4] eor r6,r10,r6,lsr#8 strb r4,[r14,#-15] eor r7,r11,r7,lsr#8 # ifdef __thumb2__ itt hs # endif ldrhsb r10,[r12,#-6] ldrhsb r11,[r12,#-2] strb r5,[r14,#-11] eor r4,r8,r4,lsr#8 strb r6,[r14,#-7] eor r5,r9,r5,lsr#8 # ifdef __thumb2__ itt hs # endif ldrhsb r8,[r12,#-13] @ load more input ldrhsb r9,[r12,#-9] strb r7,[r14,#-3] eor r6,r10,r6,lsr#8 strb r4,[r14,#-14] eor r7,r11,r7,lsr#8 # ifdef __thumb2__ itt hs # endif ldrhsb r10,[r12,#-5] ldrhsb r11,[r12,#-1] strb r5,[r14,#-10] strb r6,[r14,#-6] eor r4,r8,r4,lsr#8 strb r7,[r14,#-2] eor r5,r9,r5,lsr#8 strb r4,[r14,#-13] eor r6,r10,r6,lsr#8 strb r5,[r14,#-9] eor r7,r11,r7,lsr#8 strb r6,[r14,#-5] strb r7,[r14,#-1] add r8,sp,#4*(4+4) ldmia r8,{r8,r9,r10,r11} @ load key material ldmia r0,{r0,r1,r2,r3,r4,r5,r6,r7} @ load second half # ifdef __thumb2__ itt hi # endif strhi r10,[sp,#4*(16+10)] @ copy "rx" strhi r11,[sp,#4*(16+11)] @ copy "rx" add r0,r0,r8 @ accumulate key material add r1,r1,r9 add r2,r2,r10 # ifdef __thumb2__ itete lo # endif eorlo r8,r8,r8 @ zero or ... ldrhsb r8,[r12],#16 @ ... load input eorlo r9,r9,r9 ldrhsb r9,[r12,#-12] add r3,r3,r11 # ifdef __thumb2__ itete lo # endif eorlo r10,r10,r10 ldrhsb r10,[r12,#-8] eorlo r11,r11,r11 ldrhsb r11,[r12,#-4] eor r0,r8,r0 @ xor with input (or zero) eor r1,r9,r1 # ifdef __thumb2__ itt hs # endif ldrhsb r8,[r12,#-15] @ load more input ldrhsb r9,[r12,#-11] eor r2,r10,r2 strb r0,[r14],#16 @ store output eor r3,r11,r3 # ifdef __thumb2__ itt hs # endif ldrhsb r10,[r12,#-7] ldrhsb r11,[r12,#-3] strb r1,[r14,#-12] eor r0,r8,r0,lsr#8 strb r2,[r14,#-8] eor r1,r9,r1,lsr#8 # ifdef __thumb2__ itt hs # endif ldrhsb r8,[r12,#-14] @ load more input ldrhsb r9,[r12,#-10] strb r3,[r14,#-4] eor r2,r10,r2,lsr#8 strb r0,[r14,#-15] eor r3,r11,r3,lsr#8 # ifdef __thumb2__ itt hs # endif ldrhsb r10,[r12,#-6] ldrhsb r11,[r12,#-2] strb r1,[r14,#-11] eor r0,r8,r0,lsr#8 strb r2,[r14,#-7] eor r1,r9,r1,lsr#8 # ifdef __thumb2__ itt hs # endif ldrhsb r8,[r12,#-13] @ load more input ldrhsb r9,[r12,#-9] strb r3,[r14,#-3] eor r2,r10,r2,lsr#8 strb r0,[r14,#-14] eor r3,r11,r3,lsr#8 # ifdef __thumb2__ itt hs # endif ldrhsb r10,[r12,#-5] ldrhsb r11,[r12,#-1] strb r1,[r14,#-10] strb r2,[r14,#-6] eor r0,r8,r0,lsr#8 strb r3,[r14,#-2] eor r1,r9,r1,lsr#8 strb r0,[r14,#-13] eor r2,r10,r2,lsr#8 strb r1,[r14,#-9] eor r3,r11,r3,lsr#8 strb r2,[r14,#-5] strb r3,[r14,#-1] add r8,sp,#4*(4+8) ldmia r8,{r8,r9,r10,r11} @ load key material add r4,r4,r8 @ accumulate key material # ifdef __thumb2__ itt hi # endif addhi r8,r8,#1 @ next counter value strhi r8,[sp,#4*(12)] @ save next counter value add r5,r5,r9 add r6,r6,r10 # ifdef __thumb2__ itete lo # endif eorlo r8,r8,r8 @ zero or ... ldrhsb r8,[r12],#16 @ ... load input eorlo r9,r9,r9 ldrhsb r9,[r12,#-12] add r7,r7,r11 # ifdef __thumb2__ itete lo # endif eorlo r10,r10,r10 ldrhsb r10,[r12,#-8] eorlo r11,r11,r11 ldrhsb r11,[r12,#-4] eor r4,r8,r4 @ xor with input (or zero) eor r5,r9,r5 # ifdef __thumb2__ itt hs # endif ldrhsb r8,[r12,#-15] @ load more input ldrhsb r9,[r12,#-11] eor r6,r10,r6 strb r4,[r14],#16 @ store output eor r7,r11,r7 # ifdef __thumb2__ itt hs # endif ldrhsb r10,[r12,#-7] ldrhsb r11,[r12,#-3] strb r5,[r14,#-12] eor r4,r8,r4,lsr#8 strb r6,[r14,#-8] eor r5,r9,r5,lsr#8 # ifdef __thumb2__ itt hs # endif ldrhsb r8,[r12,#-14] @ load more input ldrhsb r9,[r12,#-10] strb r7,[r14,#-4] eor r6,r10,r6,lsr#8 strb r4,[r14,#-15] eor r7,r11,r7,lsr#8 # ifdef __thumb2__ itt hs # endif ldrhsb r10,[r12,#-6] ldrhsb r11,[r12,#-2] strb r5,[r14,#-11] eor r4,r8,r4,lsr#8 strb r6,[r14,#-7] eor r5,r9,r5,lsr#8 # ifdef __thumb2__ itt hs # endif ldrhsb r8,[r12,#-13] @ load more input ldrhsb r9,[r12,#-9] strb r7,[r14,#-3] eor r6,r10,r6,lsr#8 strb r4,[r14,#-14] eor r7,r11,r7,lsr#8 # ifdef __thumb2__ itt hs # endif ldrhsb r10,[r12,#-5] ldrhsb r11,[r12,#-1] strb r5,[r14,#-10] strb r6,[r14,#-6] eor r4,r8,r4,lsr#8 strb r7,[r14,#-2] eor r5,r9,r5,lsr#8 strb r4,[r14,#-13] eor r6,r10,r6,lsr#8 strb r5,[r14,#-9] eor r7,r11,r7,lsr#8 strb r6,[r14,#-5] strb r7,[r14,#-1] # ifdef __thumb2__ it ne # endif ldrne r8,[sp,#4*(32+2)] @ re-load len # ifdef __thumb2__ it hs # endif subhs r11,r8,#64 @ len-=64 bhi .Loop_outer beq .Ldone #endif .Ltail: ldr r12,[sp,#4*(32+1)] @ load inp add r9,sp,#4*(0) ldr r14,[sp,#4*(32+0)] @ load out .Loop_tail: ldrb r10,[r9],#1 @ read buffer on stack ldrb r11,[r12],#1 @ read input subs r8,r8,#1 eor r11,r11,r10 strb r11,[r14],#1 @ store output bne .Loop_tail .Ldone: add sp,sp,#4*(32+3) ldmia sp!,{r4,r5,r6,r7,r8,r9,r10,r11,pc} .size ChaCha20_ctr32_nohw,.-ChaCha20_ctr32_nohw #if __ARM_MAX_ARCH__>=7 .arch armv7-a .fpu neon .globl ChaCha20_ctr32_neon .hidden ChaCha20_ctr32_neon .type ChaCha20_ctr32_neon,%function .align 5 ChaCha20_ctr32_neon: ldr r12,[sp,#0] @ pull pointer to counter and nonce stmdb sp!,{r0,r1,r2,r4-r11,lr} adr r14,.Lsigma vstmdb sp!,{d8,d9,d10,d11,d12,d13,d14,d15} @ ABI spec says so stmdb sp!,{r0,r1,r2,r3} vld1.32 {q1,q2},[r3] @ load key ldmia r3,{r4,r5,r6,r7,r8,r9,r10,r11} @ load key sub sp,sp,#4*(16+16) vld1.32 {q3},[r12] @ load counter and nonce add r12,sp,#4*8 ldmia r14,{r0,r1,r2,r3} @ load sigma vld1.32 {q0},[r14]! @ load sigma vld1.32 {q12},[r14] @ one vst1.32 {q2,q3},[r12] @ copy 1/2key|counter|nonce vst1.32 {q0,q1},[sp] @ copy sigma|1/2key str r10,[sp,#4*(16+10)] @ off-load "rx" str r11,[sp,#4*(16+11)] @ off-load "rx" vshl.i32 d26,d24,#1 @ two vstr d24,[sp,#4*(16+0)] vshl.i32 d28,d24,#2 @ four vstr d26,[sp,#4*(16+2)] vmov q4,q0 vstr d28,[sp,#4*(16+4)] vmov q8,q0 vmov q5,q1 vmov q9,q1 b .Loop_neon_enter .align 4 .Loop_neon_outer: ldmia sp,{r0,r1,r2,r3,r4,r5,r6,r7,r8,r9} @ load key material cmp r11,#64*2 @ if len<=64*2 bls .Lbreak_neon @ switch to integer-only vmov q4,q0 str r11,[sp,#4*(32+2)] @ save len vmov q8,q0 str r12, [sp,#4*(32+1)] @ save inp vmov q5,q1 str r14, [sp,#4*(32+0)] @ save out vmov q9,q1 .Loop_neon_enter: ldr r11, [sp,#4*(15)] vadd.i32 q7,q3,q12 @ counter+1 ldr r12,[sp,#4*(12)] @ modulo-scheduled load vmov q6,q2 ldr r10, [sp,#4*(13)] vmov q10,q2 ldr r14,[sp,#4*(14)] vadd.i32 q11,q7,q12 @ counter+2 str r11, [sp,#4*(16+15)] mov r11,#10 add r12,r12,#3 @ counter+3 b .Loop_neon .align 4 .Loop_neon: subs r11,r11,#1 vadd.i32 q0,q0,q1 add r0,r0,r4 vadd.i32 q4,q4,q5 mov r12,r12,ror#16 vadd.i32 q8,q8,q9 add r1,r1,r5 veor q3,q3,q0 mov r10,r10,ror#16 veor q7,q7,q4 eor r12,r12,r0,ror#16 veor q11,q11,q8 eor r10,r10,r1,ror#16 vrev32.16 q3,q3 add r8,r8,r12 vrev32.16 q7,q7 mov r4,r4,ror#20 vrev32.16 q11,q11 add r9,r9,r10 vadd.i32 q2,q2,q3 mov r5,r5,ror#20 vadd.i32 q6,q6,q7 eor r4,r4,r8,ror#20 vadd.i32 q10,q10,q11 eor r5,r5,r9,ror#20 veor q12,q1,q2 add r0,r0,r4 veor q13,q5,q6 mov r12,r12,ror#24 veor q14,q9,q10 add r1,r1,r5 vshr.u32 q1,q12,#20 mov r10,r10,ror#24 vshr.u32 q5,q13,#20 eor r12,r12,r0,ror#24 vshr.u32 q9,q14,#20 eor r10,r10,r1,ror#24 vsli.32 q1,q12,#12 add r8,r8,r12 vsli.32 q5,q13,#12 mov r4,r4,ror#25 vsli.32 q9,q14,#12 add r9,r9,r10 vadd.i32 q0,q0,q1 mov r5,r5,ror#25 vadd.i32 q4,q4,q5 str r10,[sp,#4*(16+13)] vadd.i32 q8,q8,q9 ldr r10,[sp,#4*(16+15)] veor q12,q3,q0 eor r4,r4,r8,ror#25 veor q13,q7,q4 eor r5,r5,r9,ror#25 veor q14,q11,q8 str r8,[sp,#4*(16+8)] vshr.u32 q3,q12,#24 ldr r8,[sp,#4*(16+10)] vshr.u32 q7,q13,#24 add r2,r2,r6 vshr.u32 q11,q14,#24 mov r14,r14,ror#16 vsli.32 q3,q12,#8 str r9,[sp,#4*(16+9)] vsli.32 q7,q13,#8 ldr r9,[sp,#4*(16+11)] vsli.32 q11,q14,#8 add r3,r3,r7 vadd.i32 q2,q2,q3 mov r10,r10,ror#16 vadd.i32 q6,q6,q7 eor r14,r14,r2,ror#16 vadd.i32 q10,q10,q11 eor r10,r10,r3,ror#16 veor q12,q1,q2 add r8,r8,r14 veor q13,q5,q6 mov r6,r6,ror#20 veor q14,q9,q10 add r9,r9,r10 vshr.u32 q1,q12,#25 mov r7,r7,ror#20 vshr.u32 q5,q13,#25 eor r6,r6,r8,ror#20 vshr.u32 q9,q14,#25 eor r7,r7,r9,ror#20 vsli.32 q1,q12,#7 add r2,r2,r6 vsli.32 q5,q13,#7 mov r14,r14,ror#24 vsli.32 q9,q14,#7 add r3,r3,r7 vext.8 q2,q2,q2,#8 mov r10,r10,ror#24 vext.8 q6,q6,q6,#8 eor r14,r14,r2,ror#24 vext.8 q10,q10,q10,#8 eor r10,r10,r3,ror#24 vext.8 q1,q1,q1,#4 add r8,r8,r14 vext.8 q5,q5,q5,#4 mov r6,r6,ror#25 vext.8 q9,q9,q9,#4 add r9,r9,r10 vext.8 q3,q3,q3,#12 mov r7,r7,ror#25 vext.8 q7,q7,q7,#12 eor r6,r6,r8,ror#25 vext.8 q11,q11,q11,#12 eor r7,r7,r9,ror#25 vadd.i32 q0,q0,q1 add r0,r0,r5 vadd.i32 q4,q4,q5 mov r10,r10,ror#16 vadd.i32 q8,q8,q9 add r1,r1,r6 veor q3,q3,q0 mov r12,r12,ror#16 veor q7,q7,q4 eor r10,r10,r0,ror#16 veor q11,q11,q8 eor r12,r12,r1,ror#16 vrev32.16 q3,q3 add r8,r8,r10 vrev32.16 q7,q7 mov r5,r5,ror#20 vrev32.16 q11,q11 add r9,r9,r12 vadd.i32 q2,q2,q3 mov r6,r6,ror#20 vadd.i32 q6,q6,q7 eor r5,r5,r8,ror#20 vadd.i32 q10,q10,q11 eor r6,r6,r9,ror#20 veor q12,q1,q2 add r0,r0,r5 veor q13,q5,q6 mov r10,r10,ror#24 veor q14,q9,q10 add r1,r1,r6 vshr.u32 q1,q12,#20 mov r12,r12,ror#24 vshr.u32 q5,q13,#20 eor r10,r10,r0,ror#24 vshr.u32 q9,q14,#20 eor r12,r12,r1,ror#24 vsli.32 q1,q12,#12 add r8,r8,r10 vsli.32 q5,q13,#12 mov r5,r5,ror#25 vsli.32 q9,q14,#12 str r10,[sp,#4*(16+15)] vadd.i32 q0,q0,q1 ldr r10,[sp,#4*(16+13)] vadd.i32 q4,q4,q5 add r9,r9,r12 vadd.i32 q8,q8,q9 mov r6,r6,ror#25 veor q12,q3,q0 eor r5,r5,r8,ror#25 veor q13,q7,q4 eor r6,r6,r9,ror#25 veor q14,q11,q8 str r8,[sp,#4*(16+10)] vshr.u32 q3,q12,#24 ldr r8,[sp,#4*(16+8)] vshr.u32 q7,q13,#24 add r2,r2,r7 vshr.u32 q11,q14,#24 mov r10,r10,ror#16 vsli.32 q3,q12,#8 str r9,[sp,#4*(16+11)] vsli.32 q7,q13,#8 ldr r9,[sp,#4*(16+9)] vsli.32 q11,q14,#8 add r3,r3,r4 vadd.i32 q2,q2,q3 mov r14,r14,ror#16 vadd.i32 q6,q6,q7 eor r10,r10,r2,ror#16 vadd.i32 q10,q10,q11 eor r14,r14,r3,ror#16 veor q12,q1,q2 add r8,r8,r10 veor q13,q5,q6 mov r7,r7,ror#20 veor q14,q9,q10 add r9,r9,r14 vshr.u32 q1,q12,#25 mov r4,r4,ror#20 vshr.u32 q5,q13,#25 eor r7,r7,r8,ror#20 vshr.u32 q9,q14,#25 eor r4,r4,r9,ror#20 vsli.32 q1,q12,#7 add r2,r2,r7 vsli.32 q5,q13,#7 mov r10,r10,ror#24 vsli.32 q9,q14,#7 add r3,r3,r4 vext.8 q2,q2,q2,#8 mov r14,r14,ror#24 vext.8 q6,q6,q6,#8 eor r10,r10,r2,ror#24 vext.8 q10,q10,q10,#8 eor r14,r14,r3,ror#24 vext.8 q1,q1,q1,#12 add r8,r8,r10 vext.8 q5,q5,q5,#12 mov r7,r7,ror#25 vext.8 q9,q9,q9,#12 add r9,r9,r14 vext.8 q3,q3,q3,#4 mov r4,r4,ror#25 vext.8 q7,q7,q7,#4 eor r7,r7,r8,ror#25 vext.8 q11,q11,q11,#4 eor r4,r4,r9,ror#25 bne .Loop_neon add r11,sp,#32 vld1.32 {q12,q13},[sp] @ load key material vld1.32 {q14,q15},[r11] ldr r11,[sp,#4*(32+2)] @ load len str r8, [sp,#4*(16+8)] @ modulo-scheduled store str r9, [sp,#4*(16+9)] str r12,[sp,#4*(16+12)] str r10, [sp,#4*(16+13)] str r14,[sp,#4*(16+14)] @ at this point we have first half of 512-bit result in @ rx and second half at sp+4*(16+8) ldr r12,[sp,#4*(32+1)] @ load inp ldr r14,[sp,#4*(32+0)] @ load out vadd.i32 q0,q0,q12 @ accumulate key material vadd.i32 q4,q4,q12 vadd.i32 q8,q8,q12 vldr d24,[sp,#4*(16+0)] @ one vadd.i32 q1,q1,q13 vadd.i32 q5,q5,q13 vadd.i32 q9,q9,q13 vldr d26,[sp,#4*(16+2)] @ two vadd.i32 q2,q2,q14 vadd.i32 q6,q6,q14 vadd.i32 q10,q10,q14 vadd.i32 d14,d14,d24 @ counter+1 vadd.i32 d22,d22,d26 @ counter+2 vadd.i32 q3,q3,q15 vadd.i32 q7,q7,q15 vadd.i32 q11,q11,q15 cmp r11,#64*4 blo .Ltail_neon vld1.8 {q12,q13},[r12]! @ load input mov r11,sp vld1.8 {q14,q15},[r12]! veor q0,q0,q12 @ xor with input veor q1,q1,q13 vld1.8 {q12,q13},[r12]! veor q2,q2,q14 veor q3,q3,q15 vld1.8 {q14,q15},[r12]! veor q4,q4,q12 vst1.8 {q0,q1},[r14]! @ store output veor q5,q5,q13 vld1.8 {q12,q13},[r12]! veor q6,q6,q14 vst1.8 {q2,q3},[r14]! veor q7,q7,q15 vld1.8 {q14,q15},[r12]! veor q8,q8,q12 vld1.32 {q0,q1},[r11]! @ load for next iteration veor d25,d25,d25 vldr d24,[sp,#4*(16+4)] @ four veor q9,q9,q13 vld1.32 {q2,q3},[r11] veor q10,q10,q14 vst1.8 {q4,q5},[r14]! veor q11,q11,q15 vst1.8 {q6,q7},[r14]! vadd.i32 d6,d6,d24 @ next counter value vldr d24,[sp,#4*(16+0)] @ one ldmia sp,{r8,r9,r10,r11} @ load key material add r0,r0,r8 @ accumulate key material ldr r8,[r12],#16 @ load input vst1.8 {q8,q9},[r14]! add r1,r1,r9 ldr r9,[r12,#-12] vst1.8 {q10,q11},[r14]! add r2,r2,r10 ldr r10,[r12,#-8] add r3,r3,r11 ldr r11,[r12,#-4] # ifdef __ARMEB__ rev r0,r0 rev r1,r1 rev r2,r2 rev r3,r3 # endif eor r0,r0,r8 @ xor with input add r8,sp,#4*(4) eor r1,r1,r9 str r0,[r14],#16 @ store output eor r2,r2,r10 str r1,[r14,#-12] eor r3,r3,r11 ldmia r8,{r8,r9,r10,r11} @ load key material str r2,[r14,#-8] str r3,[r14,#-4] add r4,r4,r8 @ accumulate key material ldr r8,[r12],#16 @ load input add r5,r5,r9 ldr r9,[r12,#-12] add r6,r6,r10 ldr r10,[r12,#-8] add r7,r7,r11 ldr r11,[r12,#-4] # ifdef __ARMEB__ rev r4,r4 rev r5,r5 rev r6,r6 rev r7,r7 # endif eor r4,r4,r8 add r8,sp,#4*(8) eor r5,r5,r9 str r4,[r14],#16 @ store output eor r6,r6,r10 str r5,[r14,#-12] eor r7,r7,r11 ldmia r8,{r8,r9,r10,r11} @ load key material str r6,[r14,#-8] add r0,sp,#4*(16+8) str r7,[r14,#-4] ldmia r0,{r0,r1,r2,r3,r4,r5,r6,r7} @ load second half add r0,r0,r8 @ accumulate key material ldr r8,[r12],#16 @ load input add r1,r1,r9 ldr r9,[r12,#-12] # ifdef __thumb2__ it hi # endif strhi r10,[sp,#4*(16+10)] @ copy "rx" while at it add r2,r2,r10 ldr r10,[r12,#-8] # ifdef __thumb2__ it hi # endif strhi r11,[sp,#4*(16+11)] @ copy "rx" while at it add r3,r3,r11 ldr r11,[r12,#-4] # ifdef __ARMEB__ rev r0,r0 rev r1,r1 rev r2,r2 rev r3,r3 # endif eor r0,r0,r8 add r8,sp,#4*(12) eor r1,r1,r9 str r0,[r14],#16 @ store output eor r2,r2,r10 str r1,[r14,#-12] eor r3,r3,r11 ldmia r8,{r8,r9,r10,r11} @ load key material str r2,[r14,#-8] str r3,[r14,#-4] add r4,r4,r8 @ accumulate key material add r8,r8,#4 @ next counter value add r5,r5,r9 str r8,[sp,#4*(12)] @ save next counter value ldr r8,[r12],#16 @ load input add r6,r6,r10 add r4,r4,#3 @ counter+3 ldr r9,[r12,#-12] add r7,r7,r11 ldr r10,[r12,#-8] ldr r11,[r12,#-4] # ifdef __ARMEB__ rev r4,r4 rev r5,r5 rev r6,r6 rev r7,r7 # endif eor r4,r4,r8 # ifdef __thumb2__ it hi # endif ldrhi r8,[sp,#4*(32+2)] @ re-load len eor r5,r5,r9 eor r6,r6,r10 str r4,[r14],#16 @ store output eor r7,r7,r11 str r5,[r14,#-12] sub r11,r8,#64*4 @ len-=64*4 str r6,[r14,#-8] str r7,[r14,#-4] bhi .Loop_neon_outer b .Ldone_neon .align 4 .Lbreak_neon: @ harmonize NEON and integer-only stack frames: load data @ from NEON frame, but save to integer-only one; distance @ between the two is 4*(32+4+16-32)=4*(20). str r11, [sp,#4*(20+32+2)] @ save len add r11,sp,#4*(32+4) str r12, [sp,#4*(20+32+1)] @ save inp str r14, [sp,#4*(20+32+0)] @ save out ldr r12,[sp,#4*(16+10)] ldr r14,[sp,#4*(16+11)] vldmia r11,{d8,d9,d10,d11,d12,d13,d14,d15} @ fulfill ABI requirement str r12,[sp,#4*(20+16+10)] @ copy "rx" str r14,[sp,#4*(20+16+11)] @ copy "rx" ldr r11, [sp,#4*(15)] ldr r12,[sp,#4*(12)] @ modulo-scheduled load ldr r10, [sp,#4*(13)] ldr r14,[sp,#4*(14)] str r11, [sp,#4*(20+16+15)] add r11,sp,#4*(20) vst1.32 {q0,q1},[r11]! @ copy key add sp,sp,#4*(20) @ switch frame vst1.32 {q2,q3},[r11] mov r11,#10 b .Loop @ go integer-only .align 4 .Ltail_neon: cmp r11,#64*3 bhs .L192_or_more_neon cmp r11,#64*2 bhs .L128_or_more_neon cmp r11,#64*1 bhs .L64_or_more_neon add r8,sp,#4*(8) vst1.8 {q0,q1},[sp] add r10,sp,#4*(0) vst1.8 {q2,q3},[r8] b .Loop_tail_neon .align 4 .L64_or_more_neon: vld1.8 {q12,q13},[r12]! vld1.8 {q14,q15},[r12]! veor q0,q0,q12 veor q1,q1,q13 veor q2,q2,q14 veor q3,q3,q15 vst1.8 {q0,q1},[r14]! vst1.8 {q2,q3},[r14]! beq .Ldone_neon add r8,sp,#4*(8) vst1.8 {q4,q5},[sp] add r10,sp,#4*(0) vst1.8 {q6,q7},[r8] sub r11,r11,#64*1 @ len-=64*1 b .Loop_tail_neon .align 4 .L128_or_more_neon: vld1.8 {q12,q13},[r12]! vld1.8 {q14,q15},[r12]! veor q0,q0,q12 veor q1,q1,q13 vld1.8 {q12,q13},[r12]! veor q2,q2,q14 veor q3,q3,q15 vld1.8 {q14,q15},[r12]! veor q4,q4,q12 veor q5,q5,q13 vst1.8 {q0,q1},[r14]! veor q6,q6,q14 vst1.8 {q2,q3},[r14]! veor q7,q7,q15 vst1.8 {q4,q5},[r14]! vst1.8 {q6,q7},[r14]! beq .Ldone_neon add r8,sp,#4*(8) vst1.8 {q8,q9},[sp] add r10,sp,#4*(0) vst1.8 {q10,q11},[r8] sub r11,r11,#64*2 @ len-=64*2 b .Loop_tail_neon .align 4 .L192_or_more_neon: vld1.8 {q12,q13},[r12]! vld1.8 {q14,q15},[r12]! veor q0,q0,q12 veor q1,q1,q13 vld1.8 {q12,q13},[r12]! veor q2,q2,q14 veor q3,q3,q15 vld1.8 {q14,q15},[r12]! veor q4,q4,q12 veor q5,q5,q13 vld1.8 {q12,q13},[r12]! veor q6,q6,q14 vst1.8 {q0,q1},[r14]! veor q7,q7,q15 vld1.8 {q14,q15},[r12]! veor q8,q8,q12 vst1.8 {q2,q3},[r14]! veor q9,q9,q13 vst1.8 {q4,q5},[r14]! veor q10,q10,q14 vst1.8 {q6,q7},[r14]! veor q11,q11,q15 vst1.8 {q8,q9},[r14]! vst1.8 {q10,q11},[r14]! beq .Ldone_neon ldmia sp,{r8,r9,r10,r11} @ load key material add r0,r0,r8 @ accumulate key material add r8,sp,#4*(4) add r1,r1,r9 add r2,r2,r10 add r3,r3,r11 ldmia r8,{r8,r9,r10,r11} @ load key material add r4,r4,r8 @ accumulate key material add r8,sp,#4*(8) add r5,r5,r9 add r6,r6,r10 add r7,r7,r11 ldmia r8,{r8,r9,r10,r11} @ load key material # ifdef __ARMEB__ rev r0,r0 rev r1,r1 rev r2,r2 rev r3,r3 rev r4,r4 rev r5,r5 rev r6,r6 rev r7,r7 # endif stmia sp,{r0,r1,r2,r3,r4,r5,r6,r7} add r0,sp,#4*(16+8) ldmia r0,{r0,r1,r2,r3,r4,r5,r6,r7} @ load second half add r0,r0,r8 @ accumulate key material add r8,sp,#4*(12) add r1,r1,r9 add r2,r2,r10 add r3,r3,r11 ldmia r8,{r8,r9,r10,r11} @ load key material add r4,r4,r8 @ accumulate key material add r8,sp,#4*(8) add r5,r5,r9 add r4,r4,#3 @ counter+3 add r6,r6,r10 add r7,r7,r11 ldr r11,[sp,#4*(32+2)] @ re-load len # ifdef __ARMEB__ rev r0,r0 rev r1,r1 rev r2,r2 rev r3,r3 rev r4,r4 rev r5,r5 rev r6,r6 rev r7,r7 # endif stmia r8,{r0,r1,r2,r3,r4,r5,r6,r7} add r10,sp,#4*(0) sub r11,r11,#64*3 @ len-=64*3 .Loop_tail_neon: ldrb r8,[r10],#1 @ read buffer on stack ldrb r9,[r12],#1 @ read input subs r11,r11,#1 eor r8,r8,r9 strb r8,[r14],#1 @ store output bne .Loop_tail_neon .Ldone_neon: add sp,sp,#4*(32+4) vldmia sp,{d8,d9,d10,d11,d12,d13,d14,d15} add sp,sp,#4*(16+3) ldmia sp!,{r4,r5,r6,r7,r8,r9,r10,r11,pc} .size ChaCha20_ctr32_neon,.-ChaCha20_ctr32_neon #endif #endif // !OPENSSL_NO_ASM && defined(OPENSSL_ARM) && defined(__ELF__)
Vtyeshe/geoai-backend
82,352
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/ring-0.17.13/pregenerated/aesv8-gcm-armv8-linux64.S
// This file is generated from a similarly-named Perl script in the BoringSSL // source tree. Do not edit by hand. #include <ring-core/asm_base.h> #if !defined(OPENSSL_NO_ASM) && defined(OPENSSL_AARCH64) && defined(__ELF__) #if __ARM_MAX_ARCH__ >= 8 .arch armv8-a+crypto .text .globl aes_gcm_enc_kernel .hidden aes_gcm_enc_kernel .type aes_gcm_enc_kernel,%function .align 4 aes_gcm_enc_kernel: AARCH64_SIGN_LINK_REGISTER stp x29, x30, [sp, #-128]! mov x29, sp stp x19, x20, [sp, #16] mov x16, x4 mov x8, x5 stp x21, x22, [sp, #32] stp x23, x24, [sp, #48] stp d8, d9, [sp, #64] stp d10, d11, [sp, #80] stp d12, d13, [sp, #96] stp d14, d15, [sp, #112] ldr w17, [x8, #240] add x19, x8, x17, lsl #4 // borrow input_l1 for last key ldp x13, x14, [x19] // load round N keys ldr q31, [x19, #-16] // load round N-1 keys add x4, x0, x1, lsr #3 // end_input_ptr lsr x5, x1, #3 // byte_len mov x15, x5 ldp x10, x11, [x16] // ctr96_b64, ctr96_t32 ld1 { v0.16b}, [x16] // special case vector load initial counter so we can start first AES block as quickly as possible sub x5, x5, #1 // byte_len - 1 ldr q18, [x8, #0] // load rk0 and x5, x5, #0xffffffffffffffc0 // number of bytes to be processed in main loop (at least 1 byte must be handled by tail) ldr q25, [x8, #112] // load rk7 add x5, x5, x0 lsr x12, x11, #32 fmov d2, x10 // CTR block 2 orr w11, w11, w11 rev w12, w12 // rev_ctr32 fmov d1, x10 // CTR block 1 aese v0.16b, v18.16b aesmc v0.16b, v0.16b // AES block 0 - round 0 add w12, w12, #1 // increment rev_ctr32 rev w9, w12 // CTR block 1 fmov d3, x10 // CTR block 3 orr x9, x11, x9, lsl #32 // CTR block 1 add w12, w12, #1 // CTR block 1 ldr q19, [x8, #16] // load rk1 fmov v1.d[1], x9 // CTR block 1 rev w9, w12 // CTR block 2 add w12, w12, #1 // CTR block 2 orr x9, x11, x9, lsl #32 // CTR block 2 ldr q20, [x8, #32] // load rk2 fmov v2.d[1], x9 // CTR block 2 rev w9, w12 // CTR block 3 aese v0.16b, v19.16b aesmc v0.16b, v0.16b // AES block 0 - round 1 orr x9, x11, x9, lsl #32 // CTR block 3 fmov v3.d[1], x9 // CTR block 3 aese v1.16b, v18.16b aesmc v1.16b, v1.16b // AES block 1 - round 0 ldr q21, [x8, #48] // load rk3 aese v0.16b, v20.16b aesmc v0.16b, v0.16b // AES block 0 - round 2 ldr q24, [x8, #96] // load rk6 aese v2.16b, v18.16b aesmc v2.16b, v2.16b // AES block 2 - round 0 ldr q23, [x8, #80] // load rk5 aese v1.16b, v19.16b aesmc v1.16b, v1.16b // AES block 1 - round 1 ldr q14, [x6, #48] // load h3l | h3h ext v14.16b, v14.16b, v14.16b, #8 aese v3.16b, v18.16b aesmc v3.16b, v3.16b // AES block 3 - round 0 aese v2.16b, v19.16b aesmc v2.16b, v2.16b // AES block 2 - round 1 ldr q22, [x8, #64] // load rk4 aese v1.16b, v20.16b aesmc v1.16b, v1.16b // AES block 1 - round 2 ldr q13, [x6, #32] // load h2l | h2h ext v13.16b, v13.16b, v13.16b, #8 aese v3.16b, v19.16b aesmc v3.16b, v3.16b // AES block 3 - round 1 ldr q30, [x8, #192] // load rk12 aese v2.16b, v20.16b aesmc v2.16b, v2.16b // AES block 2 - round 2 ldr q15, [x6, #80] // load h4l | h4h ext v15.16b, v15.16b, v15.16b, #8 aese v1.16b, v21.16b aesmc v1.16b, v1.16b // AES block 1 - round 3 ldr q29, [x8, #176] // load rk11 aese v3.16b, v20.16b aesmc v3.16b, v3.16b // AES block 3 - round 2 ldr q26, [x8, #128] // load rk8 aese v2.16b, v21.16b aesmc v2.16b, v2.16b // AES block 2 - round 3 add w12, w12, #1 // CTR block 3 aese v0.16b, v21.16b aesmc v0.16b, v0.16b // AES block 0 - round 3 aese v3.16b, v21.16b aesmc v3.16b, v3.16b // AES block 3 - round 3 ld1 { v11.16b}, [x3] ext v11.16b, v11.16b, v11.16b, #8 rev64 v11.16b, v11.16b aese v2.16b, v22.16b aesmc v2.16b, v2.16b // AES block 2 - round 4 aese v0.16b, v22.16b aesmc v0.16b, v0.16b // AES block 0 - round 4 aese v1.16b, v22.16b aesmc v1.16b, v1.16b // AES block 1 - round 4 aese v3.16b, v22.16b aesmc v3.16b, v3.16b // AES block 3 - round 4 cmp x17, #12 // setup flags for AES-128/192/256 check aese v0.16b, v23.16b aesmc v0.16b, v0.16b // AES block 0 - round 5 aese v1.16b, v23.16b aesmc v1.16b, v1.16b // AES block 1 - round 5 aese v3.16b, v23.16b aesmc v3.16b, v3.16b // AES block 3 - round 5 aese v2.16b, v23.16b aesmc v2.16b, v2.16b // AES block 2 - round 5 aese v1.16b, v24.16b aesmc v1.16b, v1.16b // AES block 1 - round 6 trn2 v17.2d, v14.2d, v15.2d // h4l | h3l aese v3.16b, v24.16b aesmc v3.16b, v3.16b // AES block 3 - round 6 ldr q27, [x8, #144] // load rk9 aese v0.16b, v24.16b aesmc v0.16b, v0.16b // AES block 0 - round 6 ldr q12, [x6] // load h1l | h1h ext v12.16b, v12.16b, v12.16b, #8 aese v2.16b, v24.16b aesmc v2.16b, v2.16b // AES block 2 - round 6 ldr q28, [x8, #160] // load rk10 aese v1.16b, v25.16b aesmc v1.16b, v1.16b // AES block 1 - round 7 trn1 v9.2d, v14.2d, v15.2d // h4h | h3h aese v0.16b, v25.16b aesmc v0.16b, v0.16b // AES block 0 - round 7 aese v2.16b, v25.16b aesmc v2.16b, v2.16b // AES block 2 - round 7 aese v3.16b, v25.16b aesmc v3.16b, v3.16b // AES block 3 - round 7 trn2 v16.2d, v12.2d, v13.2d // h2l | h1l aese v1.16b, v26.16b aesmc v1.16b, v1.16b // AES block 1 - round 8 aese v2.16b, v26.16b aesmc v2.16b, v2.16b // AES block 2 - round 8 aese v3.16b, v26.16b aesmc v3.16b, v3.16b // AES block 3 - round 8 aese v0.16b, v26.16b aesmc v0.16b, v0.16b // AES block 0 - round 8 b.lt .Lenc_finish_first_blocks // branch if AES-128 aese v1.16b, v27.16b aesmc v1.16b, v1.16b // AES block 1 - round 9 aese v2.16b, v27.16b aesmc v2.16b, v2.16b // AES block 2 - round 9 aese v3.16b, v27.16b aesmc v3.16b, v3.16b // AES block 3 - round 9 aese v0.16b, v27.16b aesmc v0.16b, v0.16b // AES block 0 - round 9 aese v1.16b, v28.16b aesmc v1.16b, v1.16b // AES block 1 - round 10 aese v2.16b, v28.16b aesmc v2.16b, v2.16b // AES block 2 - round 10 aese v3.16b, v28.16b aesmc v3.16b, v3.16b // AES block 3 - round 10 aese v0.16b, v28.16b aesmc v0.16b, v0.16b // AES block 0 - round 10 b.eq .Lenc_finish_first_blocks // branch if AES-192 aese v1.16b, v29.16b aesmc v1.16b, v1.16b // AES block 1 - round 11 aese v2.16b, v29.16b aesmc v2.16b, v2.16b // AES block 2 - round 11 aese v0.16b, v29.16b aesmc v0.16b, v0.16b // AES block 0 - round 11 aese v3.16b, v29.16b aesmc v3.16b, v3.16b // AES block 3 - round 11 aese v1.16b, v30.16b aesmc v1.16b, v1.16b // AES block 1 - round 12 aese v2.16b, v30.16b aesmc v2.16b, v2.16b // AES block 2 - round 12 aese v0.16b, v30.16b aesmc v0.16b, v0.16b // AES block 0 - round 12 aese v3.16b, v30.16b aesmc v3.16b, v3.16b // AES block 3 - round 12 .Lenc_finish_first_blocks: cmp x0, x5 // check if we have <= 4 blocks eor v17.16b, v17.16b, v9.16b // h4k | h3k aese v2.16b, v31.16b // AES block 2 - round N-1 trn1 v8.2d, v12.2d, v13.2d // h2h | h1h aese v1.16b, v31.16b // AES block 1 - round N-1 aese v0.16b, v31.16b // AES block 0 - round N-1 aese v3.16b, v31.16b // AES block 3 - round N-1 eor v16.16b, v16.16b, v8.16b // h2k | h1k b.ge .Lenc_tail // handle tail ldp x19, x20, [x0, #16] // AES block 1 - load plaintext rev w9, w12 // CTR block 4 ldp x6, x7, [x0, #0] // AES block 0 - load plaintext ldp x23, x24, [x0, #48] // AES block 3 - load plaintext ldp x21, x22, [x0, #32] // AES block 2 - load plaintext add x0, x0, #64 // AES input_ptr update eor x19, x19, x13 // AES block 1 - round N low eor x20, x20, x14 // AES block 1 - round N high fmov d5, x19 // AES block 1 - mov low eor x6, x6, x13 // AES block 0 - round N low eor x7, x7, x14 // AES block 0 - round N high eor x24, x24, x14 // AES block 3 - round N high fmov d4, x6 // AES block 0 - mov low cmp x0, x5 // check if we have <= 8 blocks fmov v4.d[1], x7 // AES block 0 - mov high eor x23, x23, x13 // AES block 3 - round N low eor x21, x21, x13 // AES block 2 - round N low fmov v5.d[1], x20 // AES block 1 - mov high fmov d6, x21 // AES block 2 - mov low add w12, w12, #1 // CTR block 4 orr x9, x11, x9, lsl #32 // CTR block 4 fmov d7, x23 // AES block 3 - mov low eor x22, x22, x14 // AES block 2 - round N high fmov v6.d[1], x22 // AES block 2 - mov high eor v4.16b, v4.16b, v0.16b // AES block 0 - result fmov d0, x10 // CTR block 4 fmov v0.d[1], x9 // CTR block 4 rev w9, w12 // CTR block 5 add w12, w12, #1 // CTR block 5 eor v5.16b, v5.16b, v1.16b // AES block 1 - result fmov d1, x10 // CTR block 5 orr x9, x11, x9, lsl #32 // CTR block 5 fmov v1.d[1], x9 // CTR block 5 rev w9, w12 // CTR block 6 st1 { v4.16b}, [x2], #16 // AES block 0 - store result fmov v7.d[1], x24 // AES block 3 - mov high orr x9, x11, x9, lsl #32 // CTR block 6 eor v6.16b, v6.16b, v2.16b // AES block 2 - result st1 { v5.16b}, [x2], #16 // AES block 1 - store result add w12, w12, #1 // CTR block 6 fmov d2, x10 // CTR block 6 fmov v2.d[1], x9 // CTR block 6 st1 { v6.16b}, [x2], #16 // AES block 2 - store result rev w9, w12 // CTR block 7 orr x9, x11, x9, lsl #32 // CTR block 7 eor v7.16b, v7.16b, v3.16b // AES block 3 - result st1 { v7.16b}, [x2], #16 // AES block 3 - store result b.ge .Lenc_prepretail // do prepretail .Lenc_main_loop: // main loop start aese v0.16b, v18.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 0 rev64 v4.16b, v4.16b // GHASH block 4k (only t0 is free) aese v1.16b, v18.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 0 fmov d3, x10 // CTR block 4k+3 aese v2.16b, v18.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 0 ext v11.16b, v11.16b, v11.16b, #8 // PRE 0 aese v0.16b, v19.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 1 fmov v3.d[1], x9 // CTR block 4k+3 aese v1.16b, v19.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 1 ldp x23, x24, [x0, #48] // AES block 4k+7 - load plaintext aese v2.16b, v19.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 1 ldp x21, x22, [x0, #32] // AES block 4k+6 - load plaintext aese v0.16b, v20.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 2 eor v4.16b, v4.16b, v11.16b // PRE 1 aese v1.16b, v20.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 2 aese v3.16b, v18.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 0 eor x23, x23, x13 // AES block 4k+7 - round N low aese v0.16b, v21.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 3 mov d10, v17.d[1] // GHASH block 4k - mid pmull2 v9.1q, v4.2d, v15.2d // GHASH block 4k - high eor x22, x22, x14 // AES block 4k+6 - round N high mov d8, v4.d[1] // GHASH block 4k - mid aese v3.16b, v19.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 1 rev64 v5.16b, v5.16b // GHASH block 4k+1 (t0 and t1 free) aese v0.16b, v22.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 4 pmull v11.1q, v4.1d, v15.1d // GHASH block 4k - low eor v8.8b, v8.8b, v4.8b // GHASH block 4k - mid aese v2.16b, v20.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 2 aese v0.16b, v23.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 5 rev64 v7.16b, v7.16b // GHASH block 4k+3 (t0, t1, t2 and t3 free) pmull2 v4.1q, v5.2d, v14.2d // GHASH block 4k+1 - high pmull v10.1q, v8.1d, v10.1d // GHASH block 4k - mid rev64 v6.16b, v6.16b // GHASH block 4k+2 (t0, t1, and t2 free) pmull v8.1q, v5.1d, v14.1d // GHASH block 4k+1 - low eor v9.16b, v9.16b, v4.16b // GHASH block 4k+1 - high mov d4, v5.d[1] // GHASH block 4k+1 - mid aese v1.16b, v21.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 3 aese v3.16b, v20.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 2 eor v11.16b, v11.16b, v8.16b // GHASH block 4k+1 - low aese v2.16b, v21.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 3 aese v1.16b, v22.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 4 mov d8, v6.d[1] // GHASH block 4k+2 - mid aese v3.16b, v21.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 3 eor v4.8b, v4.8b, v5.8b // GHASH block 4k+1 - mid aese v2.16b, v22.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 4 aese v0.16b, v24.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 6 eor v8.8b, v8.8b, v6.8b // GHASH block 4k+2 - mid aese v3.16b, v22.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 4 pmull v4.1q, v4.1d, v17.1d // GHASH block 4k+1 - mid aese v0.16b, v25.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 7 aese v3.16b, v23.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 5 ins v8.d[1], v8.d[0] // GHASH block 4k+2 - mid aese v1.16b, v23.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 5 aese v0.16b, v26.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 8 aese v2.16b, v23.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 5 aese v1.16b, v24.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 6 eor v10.16b, v10.16b, v4.16b // GHASH block 4k+1 - mid pmull2 v4.1q, v6.2d, v13.2d // GHASH block 4k+2 - high pmull v5.1q, v6.1d, v13.1d // GHASH block 4k+2 - low aese v1.16b, v25.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 7 pmull v6.1q, v7.1d, v12.1d // GHASH block 4k+3 - low eor v9.16b, v9.16b, v4.16b // GHASH block 4k+2 - high aese v3.16b, v24.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 6 ldp x19, x20, [x0, #16] // AES block 4k+5 - load plaintext aese v1.16b, v26.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 8 mov d4, v7.d[1] // GHASH block 4k+3 - mid aese v2.16b, v24.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 6 eor v11.16b, v11.16b, v5.16b // GHASH block 4k+2 - low pmull2 v8.1q, v8.2d, v16.2d // GHASH block 4k+2 - mid pmull2 v5.1q, v7.2d, v12.2d // GHASH block 4k+3 - high eor v4.8b, v4.8b, v7.8b // GHASH block 4k+3 - mid aese v2.16b, v25.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 7 eor x19, x19, x13 // AES block 4k+5 - round N low aese v2.16b, v26.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 8 eor v10.16b, v10.16b, v8.16b // GHASH block 4k+2 - mid aese v3.16b, v25.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 7 eor x21, x21, x13 // AES block 4k+6 - round N low aese v3.16b, v26.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 8 movi v8.8b, #0xc2 pmull v4.1q, v4.1d, v16.1d // GHASH block 4k+3 - mid eor v9.16b, v9.16b, v5.16b // GHASH block 4k+3 - high cmp x17, #12 // setup flags for AES-128/192/256 check fmov d5, x19 // AES block 4k+5 - mov low ldp x6, x7, [x0, #0] // AES block 4k+4 - load plaintext b.lt .Lenc_main_loop_continue // branch if AES-128 aese v1.16b, v27.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 9 aese v0.16b, v27.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 9 aese v2.16b, v27.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 9 aese v3.16b, v27.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 9 aese v0.16b, v28.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 10 aese v1.16b, v28.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 10 aese v2.16b, v28.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 10 aese v3.16b, v28.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 10 b.eq .Lenc_main_loop_continue // branch if AES-192 aese v0.16b, v29.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 11 aese v1.16b, v29.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 11 aese v2.16b, v29.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 11 aese v3.16b, v29.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 11 aese v1.16b, v30.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 12 aese v0.16b, v30.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 12 aese v2.16b, v30.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 12 aese v3.16b, v30.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 12 .Lenc_main_loop_continue: shl d8, d8, #56 // mod_constant eor v11.16b, v11.16b, v6.16b // GHASH block 4k+3 - low eor v10.16b, v10.16b, v4.16b // GHASH block 4k+3 - mid add w12, w12, #1 // CTR block 4k+3 eor v4.16b, v11.16b, v9.16b // MODULO - karatsuba tidy up add x0, x0, #64 // AES input_ptr update pmull v7.1q, v9.1d, v8.1d // MODULO - top 64b align with mid rev w9, w12 // CTR block 4k+8 ext v9.16b, v9.16b, v9.16b, #8 // MODULO - other top alignment eor x6, x6, x13 // AES block 4k+4 - round N low eor v10.16b, v10.16b, v4.16b // MODULO - karatsuba tidy up eor x7, x7, x14 // AES block 4k+4 - round N high fmov d4, x6 // AES block 4k+4 - mov low orr x9, x11, x9, lsl #32 // CTR block 4k+8 eor v7.16b, v9.16b, v7.16b // MODULO - fold into mid eor x20, x20, x14 // AES block 4k+5 - round N high eor x24, x24, x14 // AES block 4k+7 - round N high add w12, w12, #1 // CTR block 4k+8 aese v0.16b, v31.16b // AES block 4k+4 - round N-1 fmov v4.d[1], x7 // AES block 4k+4 - mov high eor v10.16b, v10.16b, v7.16b // MODULO - fold into mid fmov d7, x23 // AES block 4k+7 - mov low aese v1.16b, v31.16b // AES block 4k+5 - round N-1 fmov v5.d[1], x20 // AES block 4k+5 - mov high fmov d6, x21 // AES block 4k+6 - mov low cmp x0, x5 // .LOOP CONTROL fmov v6.d[1], x22 // AES block 4k+6 - mov high pmull v9.1q, v10.1d, v8.1d // MODULO - mid 64b align with low eor v4.16b, v4.16b, v0.16b // AES block 4k+4 - result fmov d0, x10 // CTR block 4k+8 fmov v0.d[1], x9 // CTR block 4k+8 rev w9, w12 // CTR block 4k+9 add w12, w12, #1 // CTR block 4k+9 eor v5.16b, v5.16b, v1.16b // AES block 4k+5 - result fmov d1, x10 // CTR block 4k+9 orr x9, x11, x9, lsl #32 // CTR block 4k+9 fmov v1.d[1], x9 // CTR block 4k+9 aese v2.16b, v31.16b // AES block 4k+6 - round N-1 rev w9, w12 // CTR block 4k+10 st1 { v4.16b}, [x2], #16 // AES block 4k+4 - store result orr x9, x11, x9, lsl #32 // CTR block 4k+10 eor v11.16b, v11.16b, v9.16b // MODULO - fold into low fmov v7.d[1], x24 // AES block 4k+7 - mov high ext v10.16b, v10.16b, v10.16b, #8 // MODULO - other mid alignment st1 { v5.16b}, [x2], #16 // AES block 4k+5 - store result add w12, w12, #1 // CTR block 4k+10 aese v3.16b, v31.16b // AES block 4k+7 - round N-1 eor v6.16b, v6.16b, v2.16b // AES block 4k+6 - result fmov d2, x10 // CTR block 4k+10 st1 { v6.16b}, [x2], #16 // AES block 4k+6 - store result fmov v2.d[1], x9 // CTR block 4k+10 rev w9, w12 // CTR block 4k+11 eor v11.16b, v11.16b, v10.16b // MODULO - fold into low orr x9, x11, x9, lsl #32 // CTR block 4k+11 eor v7.16b, v7.16b, v3.16b // AES block 4k+7 - result st1 { v7.16b}, [x2], #16 // AES block 4k+7 - store result b.lt .Lenc_main_loop .Lenc_prepretail: // PREPRETAIL aese v1.16b, v18.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 0 rev64 v6.16b, v6.16b // GHASH block 4k+2 (t0, t1, and t2 free) aese v2.16b, v18.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 0 fmov d3, x10 // CTR block 4k+3 aese v0.16b, v18.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 0 rev64 v4.16b, v4.16b // GHASH block 4k (only t0 is free) fmov v3.d[1], x9 // CTR block 4k+3 ext v11.16b, v11.16b, v11.16b, #8 // PRE 0 aese v2.16b, v19.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 1 aese v0.16b, v19.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 1 eor v4.16b, v4.16b, v11.16b // PRE 1 rev64 v5.16b, v5.16b // GHASH block 4k+1 (t0 and t1 free) aese v2.16b, v20.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 2 aese v3.16b, v18.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 0 mov d10, v17.d[1] // GHASH block 4k - mid aese v1.16b, v19.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 1 pmull v11.1q, v4.1d, v15.1d // GHASH block 4k - low mov d8, v4.d[1] // GHASH block 4k - mid pmull2 v9.1q, v4.2d, v15.2d // GHASH block 4k - high aese v2.16b, v21.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 3 aese v1.16b, v20.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 2 eor v8.8b, v8.8b, v4.8b // GHASH block 4k - mid aese v0.16b, v20.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 2 aese v3.16b, v19.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 1 aese v1.16b, v21.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 3 pmull v10.1q, v8.1d, v10.1d // GHASH block 4k - mid pmull2 v4.1q, v5.2d, v14.2d // GHASH block 4k+1 - high pmull v8.1q, v5.1d, v14.1d // GHASH block 4k+1 - low aese v3.16b, v20.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 2 eor v9.16b, v9.16b, v4.16b // GHASH block 4k+1 - high mov d4, v5.d[1] // GHASH block 4k+1 - mid aese v0.16b, v21.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 3 eor v11.16b, v11.16b, v8.16b // GHASH block 4k+1 - low aese v3.16b, v21.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 3 eor v4.8b, v4.8b, v5.8b // GHASH block 4k+1 - mid mov d8, v6.d[1] // GHASH block 4k+2 - mid aese v0.16b, v22.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 4 rev64 v7.16b, v7.16b // GHASH block 4k+3 (t0, t1, t2 and t3 free) aese v3.16b, v22.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 4 pmull v4.1q, v4.1d, v17.1d // GHASH block 4k+1 - mid eor v8.8b, v8.8b, v6.8b // GHASH block 4k+2 - mid add w12, w12, #1 // CTR block 4k+3 pmull v5.1q, v6.1d, v13.1d // GHASH block 4k+2 - low aese v3.16b, v23.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 5 aese v2.16b, v22.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 4 eor v10.16b, v10.16b, v4.16b // GHASH block 4k+1 - mid pmull2 v4.1q, v6.2d, v13.2d // GHASH block 4k+2 - high eor v11.16b, v11.16b, v5.16b // GHASH block 4k+2 - low ins v8.d[1], v8.d[0] // GHASH block 4k+2 - mid aese v2.16b, v23.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 5 eor v9.16b, v9.16b, v4.16b // GHASH block 4k+2 - high mov d4, v7.d[1] // GHASH block 4k+3 - mid aese v1.16b, v22.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 4 pmull2 v8.1q, v8.2d, v16.2d // GHASH block 4k+2 - mid eor v4.8b, v4.8b, v7.8b // GHASH block 4k+3 - mid pmull2 v5.1q, v7.2d, v12.2d // GHASH block 4k+3 - high aese v1.16b, v23.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 5 pmull v4.1q, v4.1d, v16.1d // GHASH block 4k+3 - mid eor v10.16b, v10.16b, v8.16b // GHASH block 4k+2 - mid aese v0.16b, v23.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 5 aese v1.16b, v24.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 6 aese v2.16b, v24.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 6 aese v0.16b, v24.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 6 movi v8.8b, #0xc2 aese v3.16b, v24.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 6 aese v1.16b, v25.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 7 eor v9.16b, v9.16b, v5.16b // GHASH block 4k+3 - high aese v0.16b, v25.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 7 aese v3.16b, v25.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 7 shl d8, d8, #56 // mod_constant aese v1.16b, v26.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 8 eor v10.16b, v10.16b, v4.16b // GHASH block 4k+3 - mid pmull v6.1q, v7.1d, v12.1d // GHASH block 4k+3 - low aese v3.16b, v26.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 8 cmp x17, #12 // setup flags for AES-128/192/256 check aese v0.16b, v26.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 8 eor v11.16b, v11.16b, v6.16b // GHASH block 4k+3 - low aese v2.16b, v25.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 7 eor v10.16b, v10.16b, v9.16b // karatsuba tidy up aese v2.16b, v26.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 8 pmull v4.1q, v9.1d, v8.1d ext v9.16b, v9.16b, v9.16b, #8 eor v10.16b, v10.16b, v11.16b b.lt .Lenc_finish_prepretail // branch if AES-128 aese v1.16b, v27.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 9 aese v3.16b, v27.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 9 aese v0.16b, v27.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 9 aese v2.16b, v27.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 9 aese v3.16b, v28.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 10 aese v1.16b, v28.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 10 aese v0.16b, v28.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 10 aese v2.16b, v28.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 10 b.eq .Lenc_finish_prepretail // branch if AES-192 aese v1.16b, v29.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 11 aese v0.16b, v29.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 11 aese v3.16b, v29.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 11 aese v2.16b, v29.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 11 aese v1.16b, v30.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 12 aese v0.16b, v30.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 12 aese v3.16b, v30.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 12 aese v2.16b, v30.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 12 .Lenc_finish_prepretail: eor v10.16b, v10.16b, v4.16b eor v10.16b, v10.16b, v9.16b pmull v4.1q, v10.1d, v8.1d ext v10.16b, v10.16b, v10.16b, #8 aese v1.16b, v31.16b // AES block 4k+5 - round N-1 eor v11.16b, v11.16b, v4.16b aese v3.16b, v31.16b // AES block 4k+7 - round N-1 aese v0.16b, v31.16b // AES block 4k+4 - round N-1 aese v2.16b, v31.16b // AES block 4k+6 - round N-1 eor v11.16b, v11.16b, v10.16b .Lenc_tail: // TAIL ext v8.16b, v11.16b, v11.16b, #8 // prepare final partial tag sub x5, x4, x0 // main_end_input_ptr is number of bytes left to process ldp x6, x7, [x0], #16 // AES block 4k+4 - load plaintext eor x6, x6, x13 // AES block 4k+4 - round N low eor x7, x7, x14 // AES block 4k+4 - round N high cmp x5, #48 fmov d4, x6 // AES block 4k+4 - mov low fmov v4.d[1], x7 // AES block 4k+4 - mov high eor v5.16b, v4.16b, v0.16b // AES block 4k+4 - result b.gt .Lenc_blocks_more_than_3 cmp x5, #32 mov v3.16b, v2.16b movi v11.8b, #0 movi v9.8b, #0 sub w12, w12, #1 mov v2.16b, v1.16b movi v10.8b, #0 b.gt .Lenc_blocks_more_than_2 mov v3.16b, v1.16b sub w12, w12, #1 cmp x5, #16 b.gt .Lenc_blocks_more_than_1 sub w12, w12, #1 b .Lenc_blocks_less_than_1 .Lenc_blocks_more_than_3: // blocks left > 3 st1 { v5.16b}, [x2], #16 // AES final-3 block - store result ldp x6, x7, [x0], #16 // AES final-2 block - load input low & high rev64 v4.16b, v5.16b // GHASH final-3 block eor x6, x6, x13 // AES final-2 block - round N low eor v4.16b, v4.16b, v8.16b // feed in partial tag eor x7, x7, x14 // AES final-2 block - round N high mov d22, v4.d[1] // GHASH final-3 block - mid fmov d5, x6 // AES final-2 block - mov low fmov v5.d[1], x7 // AES final-2 block - mov high eor v22.8b, v22.8b, v4.8b // GHASH final-3 block - mid movi v8.8b, #0 // suppress further partial tag feed in mov d10, v17.d[1] // GHASH final-3 block - mid pmull v11.1q, v4.1d, v15.1d // GHASH final-3 block - low pmull2 v9.1q, v4.2d, v15.2d // GHASH final-3 block - high pmull v10.1q, v22.1d, v10.1d // GHASH final-3 block - mid eor v5.16b, v5.16b, v1.16b // AES final-2 block - result .Lenc_blocks_more_than_2: // blocks left > 2 st1 { v5.16b}, [x2], #16 // AES final-2 block - store result ldp x6, x7, [x0], #16 // AES final-1 block - load input low & high rev64 v4.16b, v5.16b // GHASH final-2 block eor x6, x6, x13 // AES final-1 block - round N low eor v4.16b, v4.16b, v8.16b // feed in partial tag fmov d5, x6 // AES final-1 block - mov low eor x7, x7, x14 // AES final-1 block - round N high fmov v5.d[1], x7 // AES final-1 block - mov high movi v8.8b, #0 // suppress further partial tag feed in pmull2 v20.1q, v4.2d, v14.2d // GHASH final-2 block - high mov d22, v4.d[1] // GHASH final-2 block - mid pmull v21.1q, v4.1d, v14.1d // GHASH final-2 block - low eor v22.8b, v22.8b, v4.8b // GHASH final-2 block - mid eor v5.16b, v5.16b, v2.16b // AES final-1 block - result eor v9.16b, v9.16b, v20.16b // GHASH final-2 block - high pmull v22.1q, v22.1d, v17.1d // GHASH final-2 block - mid eor v11.16b, v11.16b, v21.16b // GHASH final-2 block - low eor v10.16b, v10.16b, v22.16b // GHASH final-2 block - mid .Lenc_blocks_more_than_1: // blocks left > 1 st1 { v5.16b}, [x2], #16 // AES final-1 block - store result rev64 v4.16b, v5.16b // GHASH final-1 block ldp x6, x7, [x0], #16 // AES final block - load input low & high eor v4.16b, v4.16b, v8.16b // feed in partial tag movi v8.8b, #0 // suppress further partial tag feed in eor x6, x6, x13 // AES final block - round N low mov d22, v4.d[1] // GHASH final-1 block - mid pmull2 v20.1q, v4.2d, v13.2d // GHASH final-1 block - high eor x7, x7, x14 // AES final block - round N high eor v22.8b, v22.8b, v4.8b // GHASH final-1 block - mid eor v9.16b, v9.16b, v20.16b // GHASH final-1 block - high ins v22.d[1], v22.d[0] // GHASH final-1 block - mid fmov d5, x6 // AES final block - mov low fmov v5.d[1], x7 // AES final block - mov high pmull2 v22.1q, v22.2d, v16.2d // GHASH final-1 block - mid pmull v21.1q, v4.1d, v13.1d // GHASH final-1 block - low eor v5.16b, v5.16b, v3.16b // AES final block - result eor v10.16b, v10.16b, v22.16b // GHASH final-1 block - mid eor v11.16b, v11.16b, v21.16b // GHASH final-1 block - low .Lenc_blocks_less_than_1: // blocks left <= 1 and x1, x1, #127 // bit_length %= 128 mvn x13, xzr // rkN_l = 0xffffffffffffffff sub x1, x1, #128 // bit_length -= 128 neg x1, x1 // bit_length = 128 - #bits in input (in range [1,128]) ld1 { v18.16b}, [x2] // load existing bytes where the possibly partial last block is to be stored mvn x14, xzr // rkN_h = 0xffffffffffffffff and x1, x1, #127 // bit_length %= 128 lsr x14, x14, x1 // rkN_h is mask for top 64b of last block cmp x1, #64 csel x6, x13, x14, lt csel x7, x14, xzr, lt fmov d0, x6 // ctr0b is mask for last block fmov v0.d[1], x7 and v5.16b, v5.16b, v0.16b // possibly partial last block has zeroes in highest bits rev64 v4.16b, v5.16b // GHASH final block eor v4.16b, v4.16b, v8.16b // feed in partial tag bif v5.16b, v18.16b, v0.16b // insert existing bytes in top end of result before storing pmull2 v20.1q, v4.2d, v12.2d // GHASH final block - high mov d8, v4.d[1] // GHASH final block - mid rev w9, w12 pmull v21.1q, v4.1d, v12.1d // GHASH final block - low eor v9.16b, v9.16b, v20.16b // GHASH final block - high eor v8.8b, v8.8b, v4.8b // GHASH final block - mid pmull v8.1q, v8.1d, v16.1d // GHASH final block - mid eor v11.16b, v11.16b, v21.16b // GHASH final block - low eor v10.16b, v10.16b, v8.16b // GHASH final block - mid movi v8.8b, #0xc2 eor v4.16b, v11.16b, v9.16b // MODULO - karatsuba tidy up shl d8, d8, #56 // mod_constant eor v10.16b, v10.16b, v4.16b // MODULO - karatsuba tidy up pmull v7.1q, v9.1d, v8.1d // MODULO - top 64b align with mid ext v9.16b, v9.16b, v9.16b, #8 // MODULO - other top alignment eor v10.16b, v10.16b, v7.16b // MODULO - fold into mid eor v10.16b, v10.16b, v9.16b // MODULO - fold into mid pmull v9.1q, v10.1d, v8.1d // MODULO - mid 64b align with low ext v10.16b, v10.16b, v10.16b, #8 // MODULO - other mid alignment str w9, [x16, #12] // store the updated counter st1 { v5.16b}, [x2] // store all 16B eor v11.16b, v11.16b, v9.16b // MODULO - fold into low eor v11.16b, v11.16b, v10.16b // MODULO - fold into low ext v11.16b, v11.16b, v11.16b, #8 rev64 v11.16b, v11.16b mov x0, x15 st1 { v11.16b }, [x3] ldp x19, x20, [sp, #16] ldp x21, x22, [sp, #32] ldp x23, x24, [sp, #48] ldp d8, d9, [sp, #64] ldp d10, d11, [sp, #80] ldp d12, d13, [sp, #96] ldp d14, d15, [sp, #112] ldp x29, x30, [sp], #128 AARCH64_VALIDATE_LINK_REGISTER ret .size aes_gcm_enc_kernel,.-aes_gcm_enc_kernel .globl aes_gcm_dec_kernel .hidden aes_gcm_dec_kernel .type aes_gcm_dec_kernel,%function .align 4 aes_gcm_dec_kernel: AARCH64_SIGN_LINK_REGISTER stp x29, x30, [sp, #-128]! mov x29, sp stp x19, x20, [sp, #16] mov x16, x4 mov x8, x5 stp x21, x22, [sp, #32] stp x23, x24, [sp, #48] stp d8, d9, [sp, #64] stp d10, d11, [sp, #80] stp d12, d13, [sp, #96] stp d14, d15, [sp, #112] ldr w17, [x8, #240] add x19, x8, x17, lsl #4 // borrow input_l1 for last key ldp x13, x14, [x19] // load round N keys ldr q31, [x19, #-16] // load round N-1 keys lsr x5, x1, #3 // byte_len mov x15, x5 ldp x10, x11, [x16] // ctr96_b64, ctr96_t32 ldr q26, [x8, #128] // load rk8 sub x5, x5, #1 // byte_len - 1 ldr q25, [x8, #112] // load rk7 and x5, x5, #0xffffffffffffffc0 // number of bytes to be processed in main loop (at least 1 byte must be handled by tail) add x4, x0, x1, lsr #3 // end_input_ptr ldr q24, [x8, #96] // load rk6 lsr x12, x11, #32 ldr q23, [x8, #80] // load rk5 orr w11, w11, w11 ldr q21, [x8, #48] // load rk3 add x5, x5, x0 rev w12, w12 // rev_ctr32 add w12, w12, #1 // increment rev_ctr32 fmov d3, x10 // CTR block 3 rev w9, w12 // CTR block 1 add w12, w12, #1 // CTR block 1 fmov d1, x10 // CTR block 1 orr x9, x11, x9, lsl #32 // CTR block 1 ld1 { v0.16b}, [x16] // special case vector load initial counter so we can start first AES block as quickly as possible fmov v1.d[1], x9 // CTR block 1 rev w9, w12 // CTR block 2 add w12, w12, #1 // CTR block 2 fmov d2, x10 // CTR block 2 orr x9, x11, x9, lsl #32 // CTR block 2 fmov v2.d[1], x9 // CTR block 2 rev w9, w12 // CTR block 3 orr x9, x11, x9, lsl #32 // CTR block 3 ldr q18, [x8, #0] // load rk0 fmov v3.d[1], x9 // CTR block 3 add w12, w12, #1 // CTR block 3 ldr q22, [x8, #64] // load rk4 ldr q19, [x8, #16] // load rk1 aese v0.16b, v18.16b aesmc v0.16b, v0.16b // AES block 0 - round 0 ldr q14, [x6, #48] // load h3l | h3h ext v14.16b, v14.16b, v14.16b, #8 aese v3.16b, v18.16b aesmc v3.16b, v3.16b // AES block 3 - round 0 ldr q15, [x6, #80] // load h4l | h4h ext v15.16b, v15.16b, v15.16b, #8 aese v1.16b, v18.16b aesmc v1.16b, v1.16b // AES block 1 - round 0 ldr q13, [x6, #32] // load h2l | h2h ext v13.16b, v13.16b, v13.16b, #8 aese v2.16b, v18.16b aesmc v2.16b, v2.16b // AES block 2 - round 0 ldr q20, [x8, #32] // load rk2 aese v0.16b, v19.16b aesmc v0.16b, v0.16b // AES block 0 - round 1 aese v1.16b, v19.16b aesmc v1.16b, v1.16b // AES block 1 - round 1 ld1 { v11.16b}, [x3] ext v11.16b, v11.16b, v11.16b, #8 rev64 v11.16b, v11.16b aese v2.16b, v19.16b aesmc v2.16b, v2.16b // AES block 2 - round 1 ldr q27, [x8, #144] // load rk9 aese v3.16b, v19.16b aesmc v3.16b, v3.16b // AES block 3 - round 1 ldr q30, [x8, #192] // load rk12 aese v0.16b, v20.16b aesmc v0.16b, v0.16b // AES block 0 - round 2 ldr q12, [x6] // load h1l | h1h ext v12.16b, v12.16b, v12.16b, #8 aese v2.16b, v20.16b aesmc v2.16b, v2.16b // AES block 2 - round 2 ldr q28, [x8, #160] // load rk10 aese v3.16b, v20.16b aesmc v3.16b, v3.16b // AES block 3 - round 2 aese v0.16b, v21.16b aesmc v0.16b, v0.16b // AES block 0 - round 3 aese v1.16b, v20.16b aesmc v1.16b, v1.16b // AES block 1 - round 2 aese v3.16b, v21.16b aesmc v3.16b, v3.16b // AES block 3 - round 3 aese v0.16b, v22.16b aesmc v0.16b, v0.16b // AES block 0 - round 4 aese v2.16b, v21.16b aesmc v2.16b, v2.16b // AES block 2 - round 3 aese v1.16b, v21.16b aesmc v1.16b, v1.16b // AES block 1 - round 3 aese v3.16b, v22.16b aesmc v3.16b, v3.16b // AES block 3 - round 4 aese v2.16b, v22.16b aesmc v2.16b, v2.16b // AES block 2 - round 4 aese v1.16b, v22.16b aesmc v1.16b, v1.16b // AES block 1 - round 4 aese v3.16b, v23.16b aesmc v3.16b, v3.16b // AES block 3 - round 5 aese v0.16b, v23.16b aesmc v0.16b, v0.16b // AES block 0 - round 5 aese v1.16b, v23.16b aesmc v1.16b, v1.16b // AES block 1 - round 5 aese v2.16b, v23.16b aesmc v2.16b, v2.16b // AES block 2 - round 5 aese v0.16b, v24.16b aesmc v0.16b, v0.16b // AES block 0 - round 6 aese v3.16b, v24.16b aesmc v3.16b, v3.16b // AES block 3 - round 6 cmp x17, #12 // setup flags for AES-128/192/256 check aese v1.16b, v24.16b aesmc v1.16b, v1.16b // AES block 1 - round 6 aese v2.16b, v24.16b aesmc v2.16b, v2.16b // AES block 2 - round 6 aese v0.16b, v25.16b aesmc v0.16b, v0.16b // AES block 0 - round 7 aese v1.16b, v25.16b aesmc v1.16b, v1.16b // AES block 1 - round 7 aese v3.16b, v25.16b aesmc v3.16b, v3.16b // AES block 3 - round 7 aese v0.16b, v26.16b aesmc v0.16b, v0.16b // AES block 0 - round 8 aese v2.16b, v25.16b aesmc v2.16b, v2.16b // AES block 2 - round 7 aese v3.16b, v26.16b aesmc v3.16b, v3.16b // AES block 3 - round 8 aese v1.16b, v26.16b aesmc v1.16b, v1.16b // AES block 1 - round 8 ldr q29, [x8, #176] // load rk11 aese v2.16b, v26.16b aesmc v2.16b, v2.16b // AES block 2 - round 8 b.lt .Ldec_finish_first_blocks // branch if AES-128 aese v0.16b, v27.16b aesmc v0.16b, v0.16b // AES block 0 - round 9 aese v1.16b, v27.16b aesmc v1.16b, v1.16b // AES block 1 - round 9 aese v3.16b, v27.16b aesmc v3.16b, v3.16b // AES block 3 - round 9 aese v2.16b, v27.16b aesmc v2.16b, v2.16b // AES block 2 - round 9 aese v0.16b, v28.16b aesmc v0.16b, v0.16b // AES block 0 - round 10 aese v1.16b, v28.16b aesmc v1.16b, v1.16b // AES block 1 - round 10 aese v3.16b, v28.16b aesmc v3.16b, v3.16b // AES block 3 - round 10 aese v2.16b, v28.16b aesmc v2.16b, v2.16b // AES block 2 - round 10 b.eq .Ldec_finish_first_blocks // branch if AES-192 aese v0.16b, v29.16b aesmc v0.16b, v0.16b // AES block 0 - round 11 aese v3.16b, v29.16b aesmc v3.16b, v3.16b // AES block 3 - round 11 aese v1.16b, v29.16b aesmc v1.16b, v1.16b // AES block 1 - round 11 aese v2.16b, v29.16b aesmc v2.16b, v2.16b // AES block 2 - round 11 aese v1.16b, v30.16b aesmc v1.16b, v1.16b // AES block 1 - round 12 aese v0.16b, v30.16b aesmc v0.16b, v0.16b // AES block 0 - round 12 aese v2.16b, v30.16b aesmc v2.16b, v2.16b // AES block 2 - round 12 aese v3.16b, v30.16b aesmc v3.16b, v3.16b // AES block 3 - round 12 .Ldec_finish_first_blocks: cmp x0, x5 // check if we have <= 4 blocks trn1 v9.2d, v14.2d, v15.2d // h4h | h3h trn2 v17.2d, v14.2d, v15.2d // h4l | h3l trn1 v8.2d, v12.2d, v13.2d // h2h | h1h trn2 v16.2d, v12.2d, v13.2d // h2l | h1l eor v17.16b, v17.16b, v9.16b // h4k | h3k aese v1.16b, v31.16b // AES block 1 - round N-1 aese v2.16b, v31.16b // AES block 2 - round N-1 eor v16.16b, v16.16b, v8.16b // h2k | h1k aese v3.16b, v31.16b // AES block 3 - round N-1 aese v0.16b, v31.16b // AES block 0 - round N-1 b.ge .Ldec_tail // handle tail ldr q4, [x0, #0] // AES block 0 - load ciphertext ldr q5, [x0, #16] // AES block 1 - load ciphertext rev w9, w12 // CTR block 4 eor v0.16b, v4.16b, v0.16b // AES block 0 - result eor v1.16b, v5.16b, v1.16b // AES block 1 - result rev64 v5.16b, v5.16b // GHASH block 1 ldr q7, [x0, #48] // AES block 3 - load ciphertext mov x7, v0.d[1] // AES block 0 - mov high mov x6, v0.d[0] // AES block 0 - mov low rev64 v4.16b, v4.16b // GHASH block 0 add w12, w12, #1 // CTR block 4 fmov d0, x10 // CTR block 4 orr x9, x11, x9, lsl #32 // CTR block 4 fmov v0.d[1], x9 // CTR block 4 rev w9, w12 // CTR block 5 add w12, w12, #1 // CTR block 5 mov x19, v1.d[0] // AES block 1 - mov low orr x9, x11, x9, lsl #32 // CTR block 5 mov x20, v1.d[1] // AES block 1 - mov high eor x7, x7, x14 // AES block 0 - round N high eor x6, x6, x13 // AES block 0 - round N low stp x6, x7, [x2], #16 // AES block 0 - store result fmov d1, x10 // CTR block 5 ldr q6, [x0, #32] // AES block 2 - load ciphertext add x0, x0, #64 // AES input_ptr update fmov v1.d[1], x9 // CTR block 5 rev w9, w12 // CTR block 6 add w12, w12, #1 // CTR block 6 eor x19, x19, x13 // AES block 1 - round N low orr x9, x11, x9, lsl #32 // CTR block 6 eor x20, x20, x14 // AES block 1 - round N high stp x19, x20, [x2], #16 // AES block 1 - store result eor v2.16b, v6.16b, v2.16b // AES block 2 - result cmp x0, x5 // check if we have <= 8 blocks b.ge .Ldec_prepretail // do prepretail .Ldec_main_loop: // main loop start mov x21, v2.d[0] // AES block 4k+2 - mov low ext v11.16b, v11.16b, v11.16b, #8 // PRE 0 eor v3.16b, v7.16b, v3.16b // AES block 4k+3 - result aese v0.16b, v18.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 0 mov x22, v2.d[1] // AES block 4k+2 - mov high aese v1.16b, v18.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 0 fmov d2, x10 // CTR block 4k+6 fmov v2.d[1], x9 // CTR block 4k+6 eor v4.16b, v4.16b, v11.16b // PRE 1 rev w9, w12 // CTR block 4k+7 aese v0.16b, v19.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 1 mov x24, v3.d[1] // AES block 4k+3 - mov high aese v1.16b, v19.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 1 mov x23, v3.d[0] // AES block 4k+3 - mov low pmull2 v9.1q, v4.2d, v15.2d // GHASH block 4k - high mov d8, v4.d[1] // GHASH block 4k - mid fmov d3, x10 // CTR block 4k+7 aese v0.16b, v20.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 2 orr x9, x11, x9, lsl #32 // CTR block 4k+7 aese v2.16b, v18.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 0 fmov v3.d[1], x9 // CTR block 4k+7 aese v1.16b, v20.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 2 eor v8.8b, v8.8b, v4.8b // GHASH block 4k - mid aese v0.16b, v21.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 3 eor x22, x22, x14 // AES block 4k+2 - round N high aese v2.16b, v19.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 1 mov d10, v17.d[1] // GHASH block 4k - mid aese v1.16b, v21.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 3 rev64 v6.16b, v6.16b // GHASH block 4k+2 aese v3.16b, v18.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 0 eor x21, x21, x13 // AES block 4k+2 - round N low aese v2.16b, v20.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 2 stp x21, x22, [x2], #16 // AES block 4k+2 - store result pmull v11.1q, v4.1d, v15.1d // GHASH block 4k - low pmull2 v4.1q, v5.2d, v14.2d // GHASH block 4k+1 - high aese v2.16b, v21.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 3 rev64 v7.16b, v7.16b // GHASH block 4k+3 pmull v10.1q, v8.1d, v10.1d // GHASH block 4k - mid eor x23, x23, x13 // AES block 4k+3 - round N low pmull v8.1q, v5.1d, v14.1d // GHASH block 4k+1 - low eor x24, x24, x14 // AES block 4k+3 - round N high eor v9.16b, v9.16b, v4.16b // GHASH block 4k+1 - high aese v2.16b, v22.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 4 aese v3.16b, v19.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 1 mov d4, v5.d[1] // GHASH block 4k+1 - mid aese v0.16b, v22.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 4 eor v11.16b, v11.16b, v8.16b // GHASH block 4k+1 - low aese v2.16b, v23.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 5 add w12, w12, #1 // CTR block 4k+7 aese v3.16b, v20.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 2 mov d8, v6.d[1] // GHASH block 4k+2 - mid aese v1.16b, v22.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 4 eor v4.8b, v4.8b, v5.8b // GHASH block 4k+1 - mid pmull v5.1q, v6.1d, v13.1d // GHASH block 4k+2 - low aese v3.16b, v21.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 3 eor v8.8b, v8.8b, v6.8b // GHASH block 4k+2 - mid aese v1.16b, v23.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 5 aese v0.16b, v23.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 5 eor v11.16b, v11.16b, v5.16b // GHASH block 4k+2 - low pmull v4.1q, v4.1d, v17.1d // GHASH block 4k+1 - mid rev w9, w12 // CTR block 4k+8 aese v1.16b, v24.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 6 ins v8.d[1], v8.d[0] // GHASH block 4k+2 - mid aese v0.16b, v24.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 6 add w12, w12, #1 // CTR block 4k+8 aese v3.16b, v22.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 4 aese v1.16b, v25.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 7 eor v10.16b, v10.16b, v4.16b // GHASH block 4k+1 - mid aese v0.16b, v25.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 7 pmull2 v4.1q, v6.2d, v13.2d // GHASH block 4k+2 - high mov d6, v7.d[1] // GHASH block 4k+3 - mid aese v3.16b, v23.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 5 pmull2 v8.1q, v8.2d, v16.2d // GHASH block 4k+2 - mid aese v0.16b, v26.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 8 eor v9.16b, v9.16b, v4.16b // GHASH block 4k+2 - high aese v3.16b, v24.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 6 pmull v4.1q, v7.1d, v12.1d // GHASH block 4k+3 - low orr x9, x11, x9, lsl #32 // CTR block 4k+8 eor v10.16b, v10.16b, v8.16b // GHASH block 4k+2 - mid pmull2 v5.1q, v7.2d, v12.2d // GHASH block 4k+3 - high cmp x17, #12 // setup flags for AES-128/192/256 check eor v6.8b, v6.8b, v7.8b // GHASH block 4k+3 - mid aese v1.16b, v26.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 8 aese v2.16b, v24.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 6 eor v9.16b, v9.16b, v5.16b // GHASH block 4k+3 - high pmull v6.1q, v6.1d, v16.1d // GHASH block 4k+3 - mid movi v8.8b, #0xc2 aese v2.16b, v25.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 7 eor v11.16b, v11.16b, v4.16b // GHASH block 4k+3 - low aese v3.16b, v25.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 7 shl d8, d8, #56 // mod_constant aese v2.16b, v26.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 8 eor v10.16b, v10.16b, v6.16b // GHASH block 4k+3 - mid aese v3.16b, v26.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 8 b.lt .Ldec_main_loop_continue // branch if AES-128 aese v0.16b, v27.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 9 aese v2.16b, v27.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 9 aese v1.16b, v27.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 9 aese v3.16b, v27.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 9 aese v0.16b, v28.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 10 aese v1.16b, v28.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 10 aese v2.16b, v28.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 10 aese v3.16b, v28.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 10 b.eq .Ldec_main_loop_continue // branch if AES-192 aese v0.16b, v29.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 11 aese v1.16b, v29.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 11 aese v2.16b, v29.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 11 aese v3.16b, v29.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 11 aese v0.16b, v30.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 12 aese v1.16b, v30.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 12 aese v2.16b, v30.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 12 aese v3.16b, v30.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 12 .Ldec_main_loop_continue: pmull v7.1q, v9.1d, v8.1d // MODULO - top 64b align with mid eor v6.16b, v11.16b, v9.16b // MODULO - karatsuba tidy up ldr q4, [x0, #0] // AES block 4k+4 - load ciphertext aese v0.16b, v31.16b // AES block 4k+4 - round N-1 ext v9.16b, v9.16b, v9.16b, #8 // MODULO - other top alignment eor v10.16b, v10.16b, v6.16b // MODULO - karatsuba tidy up ldr q5, [x0, #16] // AES block 4k+5 - load ciphertext eor v0.16b, v4.16b, v0.16b // AES block 4k+4 - result stp x23, x24, [x2], #16 // AES block 4k+3 - store result eor v10.16b, v10.16b, v7.16b // MODULO - fold into mid ldr q7, [x0, #48] // AES block 4k+7 - load ciphertext ldr q6, [x0, #32] // AES block 4k+6 - load ciphertext mov x7, v0.d[1] // AES block 4k+4 - mov high eor v10.16b, v10.16b, v9.16b // MODULO - fold into mid aese v1.16b, v31.16b // AES block 4k+5 - round N-1 add x0, x0, #64 // AES input_ptr update mov x6, v0.d[0] // AES block 4k+4 - mov low fmov d0, x10 // CTR block 4k+8 fmov v0.d[1], x9 // CTR block 4k+8 pmull v8.1q, v10.1d, v8.1d // MODULO - mid 64b align with low eor v1.16b, v5.16b, v1.16b // AES block 4k+5 - result rev w9, w12 // CTR block 4k+9 aese v2.16b, v31.16b // AES block 4k+6 - round N-1 orr x9, x11, x9, lsl #32 // CTR block 4k+9 cmp x0, x5 // .LOOP CONTROL add w12, w12, #1 // CTR block 4k+9 eor x6, x6, x13 // AES block 4k+4 - round N low eor x7, x7, x14 // AES block 4k+4 - round N high mov x20, v1.d[1] // AES block 4k+5 - mov high eor v2.16b, v6.16b, v2.16b // AES block 4k+6 - result eor v11.16b, v11.16b, v8.16b // MODULO - fold into low mov x19, v1.d[0] // AES block 4k+5 - mov low fmov d1, x10 // CTR block 4k+9 ext v10.16b, v10.16b, v10.16b, #8 // MODULO - other mid alignment fmov v1.d[1], x9 // CTR block 4k+9 rev w9, w12 // CTR block 4k+10 add w12, w12, #1 // CTR block 4k+10 aese v3.16b, v31.16b // AES block 4k+7 - round N-1 orr x9, x11, x9, lsl #32 // CTR block 4k+10 rev64 v5.16b, v5.16b // GHASH block 4k+5 eor x20, x20, x14 // AES block 4k+5 - round N high stp x6, x7, [x2], #16 // AES block 4k+4 - store result eor x19, x19, x13 // AES block 4k+5 - round N low stp x19, x20, [x2], #16 // AES block 4k+5 - store result rev64 v4.16b, v4.16b // GHASH block 4k+4 eor v11.16b, v11.16b, v10.16b // MODULO - fold into low b.lt .Ldec_main_loop .Ldec_prepretail: // PREPRETAIL ext v11.16b, v11.16b, v11.16b, #8 // PRE 0 mov x21, v2.d[0] // AES block 4k+2 - mov low eor v3.16b, v7.16b, v3.16b // AES block 4k+3 - result aese v0.16b, v18.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 0 mov x22, v2.d[1] // AES block 4k+2 - mov high aese v1.16b, v18.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 0 fmov d2, x10 // CTR block 4k+6 fmov v2.d[1], x9 // CTR block 4k+6 rev w9, w12 // CTR block 4k+7 eor v4.16b, v4.16b, v11.16b // PRE 1 rev64 v6.16b, v6.16b // GHASH block 4k+2 orr x9, x11, x9, lsl #32 // CTR block 4k+7 mov x23, v3.d[0] // AES block 4k+3 - mov low aese v1.16b, v19.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 1 mov x24, v3.d[1] // AES block 4k+3 - mov high pmull v11.1q, v4.1d, v15.1d // GHASH block 4k - low mov d8, v4.d[1] // GHASH block 4k - mid fmov d3, x10 // CTR block 4k+7 pmull2 v9.1q, v4.2d, v15.2d // GHASH block 4k - high fmov v3.d[1], x9 // CTR block 4k+7 aese v2.16b, v18.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 0 mov d10, v17.d[1] // GHASH block 4k - mid aese v0.16b, v19.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 1 eor v8.8b, v8.8b, v4.8b // GHASH block 4k - mid pmull2 v4.1q, v5.2d, v14.2d // GHASH block 4k+1 - high aese v2.16b, v19.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 1 rev64 v7.16b, v7.16b // GHASH block 4k+3 aese v3.16b, v18.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 0 pmull v10.1q, v8.1d, v10.1d // GHASH block 4k - mid eor v9.16b, v9.16b, v4.16b // GHASH block 4k+1 - high pmull v8.1q, v5.1d, v14.1d // GHASH block 4k+1 - low aese v3.16b, v19.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 1 mov d4, v5.d[1] // GHASH block 4k+1 - mid aese v0.16b, v20.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 2 aese v1.16b, v20.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 2 eor v11.16b, v11.16b, v8.16b // GHASH block 4k+1 - low aese v2.16b, v20.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 2 aese v0.16b, v21.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 3 mov d8, v6.d[1] // GHASH block 4k+2 - mid aese v3.16b, v20.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 2 eor v4.8b, v4.8b, v5.8b // GHASH block 4k+1 - mid pmull v5.1q, v6.1d, v13.1d // GHASH block 4k+2 - low aese v0.16b, v22.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 4 aese v3.16b, v21.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 3 eor v8.8b, v8.8b, v6.8b // GHASH block 4k+2 - mid pmull v4.1q, v4.1d, v17.1d // GHASH block 4k+1 - mid aese v0.16b, v23.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 5 eor v11.16b, v11.16b, v5.16b // GHASH block 4k+2 - low aese v3.16b, v22.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 4 pmull2 v5.1q, v7.2d, v12.2d // GHASH block 4k+3 - high eor v10.16b, v10.16b, v4.16b // GHASH block 4k+1 - mid pmull2 v4.1q, v6.2d, v13.2d // GHASH block 4k+2 - high aese v3.16b, v23.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 5 ins v8.d[1], v8.d[0] // GHASH block 4k+2 - mid aese v2.16b, v21.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 3 aese v1.16b, v21.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 3 eor v9.16b, v9.16b, v4.16b // GHASH block 4k+2 - high pmull v4.1q, v7.1d, v12.1d // GHASH block 4k+3 - low aese v2.16b, v22.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 4 mov d6, v7.d[1] // GHASH block 4k+3 - mid aese v1.16b, v22.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 4 pmull2 v8.1q, v8.2d, v16.2d // GHASH block 4k+2 - mid aese v2.16b, v23.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 5 eor v6.8b, v6.8b, v7.8b // GHASH block 4k+3 - mid aese v1.16b, v23.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 5 aese v3.16b, v24.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 6 eor v10.16b, v10.16b, v8.16b // GHASH block 4k+2 - mid aese v2.16b, v24.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 6 aese v0.16b, v24.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 6 movi v8.8b, #0xc2 aese v1.16b, v24.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 6 eor v11.16b, v11.16b, v4.16b // GHASH block 4k+3 - low pmull v6.1q, v6.1d, v16.1d // GHASH block 4k+3 - mid aese v3.16b, v25.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 7 cmp x17, #12 // setup flags for AES-128/192/256 check eor v9.16b, v9.16b, v5.16b // GHASH block 4k+3 - high aese v1.16b, v25.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 7 aese v0.16b, v25.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 7 eor v10.16b, v10.16b, v6.16b // GHASH block 4k+3 - mid aese v3.16b, v26.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 8 aese v2.16b, v25.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 7 eor v6.16b, v11.16b, v9.16b // MODULO - karatsuba tidy up aese v1.16b, v26.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 8 aese v0.16b, v26.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 8 shl d8, d8, #56 // mod_constant aese v2.16b, v26.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 8 b.lt .Ldec_finish_prepretail // branch if AES-128 aese v1.16b, v27.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 9 aese v2.16b, v27.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 9 aese v3.16b, v27.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 9 aese v0.16b, v27.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 9 aese v2.16b, v28.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 10 aese v3.16b, v28.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 10 aese v0.16b, v28.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 10 aese v1.16b, v28.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 10 b.eq .Ldec_finish_prepretail // branch if AES-192 aese v2.16b, v29.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 11 aese v0.16b, v29.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 11 aese v1.16b, v29.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 11 aese v2.16b, v30.16b aesmc v2.16b, v2.16b // AES block 4k+6 - round 12 aese v3.16b, v29.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 11 aese v1.16b, v30.16b aesmc v1.16b, v1.16b // AES block 4k+5 - round 12 aese v0.16b, v30.16b aesmc v0.16b, v0.16b // AES block 4k+4 - round 12 aese v3.16b, v30.16b aesmc v3.16b, v3.16b // AES block 4k+7 - round 12 .Ldec_finish_prepretail: eor v10.16b, v10.16b, v6.16b // MODULO - karatsuba tidy up pmull v7.1q, v9.1d, v8.1d // MODULO - top 64b align with mid ext v9.16b, v9.16b, v9.16b, #8 // MODULO - other top alignment eor v10.16b, v10.16b, v7.16b // MODULO - fold into mid eor x22, x22, x14 // AES block 4k+2 - round N high eor x23, x23, x13 // AES block 4k+3 - round N low eor v10.16b, v10.16b, v9.16b // MODULO - fold into mid add w12, w12, #1 // CTR block 4k+7 eor x21, x21, x13 // AES block 4k+2 - round N low pmull v8.1q, v10.1d, v8.1d // MODULO - mid 64b align with low eor x24, x24, x14 // AES block 4k+3 - round N high stp x21, x22, [x2], #16 // AES block 4k+2 - store result ext v10.16b, v10.16b, v10.16b, #8 // MODULO - other mid alignment stp x23, x24, [x2], #16 // AES block 4k+3 - store result eor v11.16b, v11.16b, v8.16b // MODULO - fold into low aese v1.16b, v31.16b // AES block 4k+5 - round N-1 aese v0.16b, v31.16b // AES block 4k+4 - round N-1 aese v3.16b, v31.16b // AES block 4k+7 - round N-1 aese v2.16b, v31.16b // AES block 4k+6 - round N-1 eor v11.16b, v11.16b, v10.16b // MODULO - fold into low .Ldec_tail: // TAIL sub x5, x4, x0 // main_end_input_ptr is number of bytes left to process ld1 { v5.16b}, [x0], #16 // AES block 4k+4 - load ciphertext eor v0.16b, v5.16b, v0.16b // AES block 4k+4 - result mov x6, v0.d[0] // AES block 4k+4 - mov low mov x7, v0.d[1] // AES block 4k+4 - mov high ext v8.16b, v11.16b, v11.16b, #8 // prepare final partial tag cmp x5, #48 eor x6, x6, x13 // AES block 4k+4 - round N low eor x7, x7, x14 // AES block 4k+4 - round N high b.gt .Ldec_blocks_more_than_3 sub w12, w12, #1 mov v3.16b, v2.16b movi v10.8b, #0 movi v11.8b, #0 cmp x5, #32 movi v9.8b, #0 mov v2.16b, v1.16b b.gt .Ldec_blocks_more_than_2 sub w12, w12, #1 mov v3.16b, v1.16b cmp x5, #16 b.gt .Ldec_blocks_more_than_1 sub w12, w12, #1 b .Ldec_blocks_less_than_1 .Ldec_blocks_more_than_3: // blocks left > 3 rev64 v4.16b, v5.16b // GHASH final-3 block ld1 { v5.16b}, [x0], #16 // AES final-2 block - load ciphertext stp x6, x7, [x2], #16 // AES final-3 block - store result mov d10, v17.d[1] // GHASH final-3 block - mid eor v4.16b, v4.16b, v8.16b // feed in partial tag eor v0.16b, v5.16b, v1.16b // AES final-2 block - result mov d22, v4.d[1] // GHASH final-3 block - mid mov x6, v0.d[0] // AES final-2 block - mov low mov x7, v0.d[1] // AES final-2 block - mov high eor v22.8b, v22.8b, v4.8b // GHASH final-3 block - mid movi v8.8b, #0 // suppress further partial tag feed in pmull2 v9.1q, v4.2d, v15.2d // GHASH final-3 block - high pmull v10.1q, v22.1d, v10.1d // GHASH final-3 block - mid eor x6, x6, x13 // AES final-2 block - round N low pmull v11.1q, v4.1d, v15.1d // GHASH final-3 block - low eor x7, x7, x14 // AES final-2 block - round N high .Ldec_blocks_more_than_2: // blocks left > 2 rev64 v4.16b, v5.16b // GHASH final-2 block ld1 { v5.16b}, [x0], #16 // AES final-1 block - load ciphertext eor v4.16b, v4.16b, v8.16b // feed in partial tag stp x6, x7, [x2], #16 // AES final-2 block - store result eor v0.16b, v5.16b, v2.16b // AES final-1 block - result mov d22, v4.d[1] // GHASH final-2 block - mid pmull v21.1q, v4.1d, v14.1d // GHASH final-2 block - low pmull2 v20.1q, v4.2d, v14.2d // GHASH final-2 block - high eor v22.8b, v22.8b, v4.8b // GHASH final-2 block - mid mov x6, v0.d[0] // AES final-1 block - mov low mov x7, v0.d[1] // AES final-1 block - mov high eor v11.16b, v11.16b, v21.16b // GHASH final-2 block - low movi v8.8b, #0 // suppress further partial tag feed in pmull v22.1q, v22.1d, v17.1d // GHASH final-2 block - mid eor v9.16b, v9.16b, v20.16b // GHASH final-2 block - high eor x6, x6, x13 // AES final-1 block - round N low eor v10.16b, v10.16b, v22.16b // GHASH final-2 block - mid eor x7, x7, x14 // AES final-1 block - round N high .Ldec_blocks_more_than_1: // blocks left > 1 stp x6, x7, [x2], #16 // AES final-1 block - store result rev64 v4.16b, v5.16b // GHASH final-1 block ld1 { v5.16b}, [x0], #16 // AES final block - load ciphertext eor v4.16b, v4.16b, v8.16b // feed in partial tag movi v8.8b, #0 // suppress further partial tag feed in mov d22, v4.d[1] // GHASH final-1 block - mid eor v0.16b, v5.16b, v3.16b // AES final block - result pmull2 v20.1q, v4.2d, v13.2d // GHASH final-1 block - high eor v22.8b, v22.8b, v4.8b // GHASH final-1 block - mid pmull v21.1q, v4.1d, v13.1d // GHASH final-1 block - low mov x6, v0.d[0] // AES final block - mov low ins v22.d[1], v22.d[0] // GHASH final-1 block - mid mov x7, v0.d[1] // AES final block - mov high pmull2 v22.1q, v22.2d, v16.2d // GHASH final-1 block - mid eor x6, x6, x13 // AES final block - round N low eor v11.16b, v11.16b, v21.16b // GHASH final-1 block - low eor v9.16b, v9.16b, v20.16b // GHASH final-1 block - high eor v10.16b, v10.16b, v22.16b // GHASH final-1 block - mid eor x7, x7, x14 // AES final block - round N high .Ldec_blocks_less_than_1: // blocks left <= 1 and x1, x1, #127 // bit_length %= 128 mvn x14, xzr // rkN_h = 0xffffffffffffffff sub x1, x1, #128 // bit_length -= 128 mvn x13, xzr // rkN_l = 0xffffffffffffffff ldp x4, x5, [x2] // load existing bytes we need to not overwrite neg x1, x1 // bit_length = 128 - #bits in input (in range [1,128]) and x1, x1, #127 // bit_length %= 128 lsr x14, x14, x1 // rkN_h is mask for top 64b of last block cmp x1, #64 csel x9, x13, x14, lt csel x10, x14, xzr, lt fmov d0, x9 // ctr0b is mask for last block and x6, x6, x9 mov v0.d[1], x10 bic x4, x4, x9 // mask out low existing bytes rev w9, w12 bic x5, x5, x10 // mask out high existing bytes orr x6, x6, x4 and x7, x7, x10 orr x7, x7, x5 and v5.16b, v5.16b, v0.16b // possibly partial last block has zeroes in highest bits rev64 v4.16b, v5.16b // GHASH final block eor v4.16b, v4.16b, v8.16b // feed in partial tag pmull v21.1q, v4.1d, v12.1d // GHASH final block - low mov d8, v4.d[1] // GHASH final block - mid eor v8.8b, v8.8b, v4.8b // GHASH final block - mid pmull2 v20.1q, v4.2d, v12.2d // GHASH final block - high pmull v8.1q, v8.1d, v16.1d // GHASH final block - mid eor v9.16b, v9.16b, v20.16b // GHASH final block - high eor v11.16b, v11.16b, v21.16b // GHASH final block - low eor v10.16b, v10.16b, v8.16b // GHASH final block - mid movi v8.8b, #0xc2 eor v6.16b, v11.16b, v9.16b // MODULO - karatsuba tidy up shl d8, d8, #56 // mod_constant eor v10.16b, v10.16b, v6.16b // MODULO - karatsuba tidy up pmull v7.1q, v9.1d, v8.1d // MODULO - top 64b align with mid ext v9.16b, v9.16b, v9.16b, #8 // MODULO - other top alignment eor v10.16b, v10.16b, v7.16b // MODULO - fold into mid eor v10.16b, v10.16b, v9.16b // MODULO - fold into mid pmull v8.1q, v10.1d, v8.1d // MODULO - mid 64b align with low ext v10.16b, v10.16b, v10.16b, #8 // MODULO - other mid alignment eor v11.16b, v11.16b, v8.16b // MODULO - fold into low stp x6, x7, [x2] str w9, [x16, #12] // store the updated counter eor v11.16b, v11.16b, v10.16b // MODULO - fold into low ext v11.16b, v11.16b, v11.16b, #8 rev64 v11.16b, v11.16b mov x0, x15 st1 { v11.16b }, [x3] ldp x19, x20, [sp, #16] ldp x21, x22, [sp, #32] ldp x23, x24, [sp, #48] ldp d8, d9, [sp, #64] ldp d10, d11, [sp, #80] ldp d12, d13, [sp, #96] ldp d14, d15, [sp, #112] ldp x29, x30, [sp], #128 AARCH64_VALIDATE_LINK_REGISTER ret .size aes_gcm_dec_kernel,.-aes_gcm_dec_kernel #endif #endif // !OPENSSL_NO_ASM && defined(OPENSSL_AARCH64) && defined(__ELF__)